Prompt-Engineering-Techniken
Die Modelle GPT-3, GPT-3.5, GPT-4 und GPT-4o von OpenAI sind promptbasiert. Bei prompt-basierten Modellen interagiert der Benutzer mit dem Modell, indem er einen Textprompt eingibt, auf den das Modell mit einer Textvervollständigung antwortet. Diese Vervollständigung ist die Fortsetzung des Eingabetexts durch das Modell.
Obwohl diese Modelle äußerst leistungsfähig sind, ist ihr Verhalten auch sehr vom eingegebenen Prompt abhängig. Dies macht das Erstellen von Prompts zu einer wichtigen Fähigkeit, die es zu entwickeln gilt.
Das Erstellen von Prompts kann schwierig sein. In der Praxis fungiert der Prompt, um die Modellgewichte so zu konfigurieren, dass sie die gewünschte Aufgabe erfüllen. Aber dies ist eher eine Kunst als eine Wissenschaft und es erfordert häufig Erfahrung und Intuition, einen erfolgreichen Prompt zu erstellen. Das Ziel dieses Artikels ist es, Ihnen den Einstieg in diesen Lernprozess zu erleichtern. Der Artikel versucht, allgemeine Konzepte und Muster zu vermitteln, die für alle GPT-Modelle gelten. Dabei ist allerdings zu beachten, dass sich jedes Modell anders verhält, sodass die Erkenntnisse möglicherweise nicht für alle Modelle gleichermaßen gelten.
Grundlagen
In diesem Abschnitt werden die grundlegenden Konzepte und Elemente von GPT-Eingabeaufforderungen behandelt.
Benutzer interagieren mit GPT-Modellen über Textprompts. Wie bei allen generativen Sprachmodellen versuchen GPT-Modelle, die nächste Wortfolge zu erzeugen, die am ehesten aus dem vorherigen Text folgen. Es ist, als würden Sie Folgendes sagen: Was ist das Erste, was Ihnen in den Sinn kommt, wenn ich <prompt>
sage?. Die folgenden Beispiele veranschaulichen dieses Verhalten. Bei Eingabe der ersten Wörter bekannter Inhalte ist das Modell in der Lage, den Text richtig fortzusetzen.
Prompt | Completion |
---|---|
Vor 87 Jahren gründeten unsere | Väter auf diesem Kontinent eine neue Nation, die in Freiheit geboren wurde und der Idee gewidmet ist, dass alle Menschen gleich geschaffen sind. […] |
„Nennt mich Ismael.“ | „Als ich vor einigen Jahren – wie lange es genau her ist, tut wenig zu Sache – so gut wie nichts in der Tasche hatte und von einem weiteren Aufenthalt auf dem Lande nichts mehr wissen wollte, kam ich auf den Gedanken, ein wenig zur See zu fahren, um die Welt des Meeres kennenzulernen.“ […] |
Wenn Sie komplexere Prompts entwickeln, ist es hilfreich, dieses grundlegende Verhalten im Hinterkopf zu behalten. Unabhängig von dem angegebenen Prompt reagiert das Modell einfach mit dem, was es als höchstwahrscheinlich annimmt (angesichts seiner Trainingsdaten und Trainingsziele). Wenn Sie in Ihrem Prompt eine Frage stellen, folgt das Modell nicht einem separaten F&A-Codepfad, sondern scheint die Frage zu beantworten, da eine Antwort die wahrscheinlichste Art von Reaktion für die eingegebene Frage ist.
Komponenten von Prompts
Bei der Verwendung der Vervollständigungs-API wird zwar nicht zwischen verschiedenen Teilen des Prompts unterschieden, doch kann es für das Lernen und die Diskussion nützlich sein, die zugrunde liegenden Prompt-Komponenten zu identifizieren. In der Chat Vervollständigungs-API gibt es unterschiedliche Abschnitte des Prompts, die in Form eines Arrays von Dictionarys mit zugeordneten Rollen an die API gesendet werden: System, Benutzer und Assistent. Dieser Leitfaden befasst sich eher allgemein mit der Frage, wie eine prompte Konstruktion aussehen kann, als dass er präskriptive Leitlinien enthält. Er stellt keine verbindliche Anleitung für eine bestimmte API dar.
Es ist auch wichtig zu verstehen, dass es zwar auch andere Möglichkeiten gibt, Prompts zu analysieren. Das Ziel dieser Aufschlüsselung ist es jedoch, relativ einfache Überlegungen zum Aufbau von Prompts zu liefern. Bei der Vervollständigungs-API sind alle Komponenten optional. Es muss aber mindestens eine vorhanden sein und die meisten Prompts enthalten mehr als eine Komponente. Es kann auch eine Grauzone zwischen Komponenten geben. Die nachstehende Reihenfolge entspricht in etwa der Häufigkeit, mit der die einzelnen Komponenten verwendet werden, und zwar von der häufigsten zur geringsten.
Anweisungen
Anweisungen sind wahrscheinlich die am häufigsten verwendete Komponente in Prompts. Anweisungen sind ganz einfach Anweisungen für das Modell, was zu tun ist. Auch wenn das Konzept einfach ist, können Anweisungen in der Praxis komplex sein. Die folgende Tabelle veranschaulicht dies anhand einfacher und komplexerer Anweisungen in zwei verschiedenen Formen.
Anweisungstyp | Prompt | Completion |
---|---|---|
Einfache Anweisungen | Schreibe eine Einleitung für einen wöchentlichen Newsletter. | Willkommen zu unserem wöchentlichen Newsletter. Diese Woche liegt der Schwerpunkt auf Produktivität. Wir teilen Tipps und Tricks, wie Sie in allen Bereichen Ihres Lebens produktiv sein können. Wir wünschen Ihnen viel Spaß und würden uns freuen, wenn Sie Ihren Freunden zu unserem Newsletter einladen! |
Komplexe Anweisungen | Schreibe eine Einleitung für einen wöchentlichen Newsletter für die Mitarbeiter meines Unternehmens mit dem Namen Contoso. Sie sollte das großartige All-Hands-Meeting erwähnen, das wir letzte Woche hatten, und dem Team für all seine harte Arbeit in den letzten Monaten danken. | Willkommen beim wöchentlichen Newsletter von Contoso! Wir hatten letzte Woche ein großartiges All-Hands-Meeting und ich möchte dem Team für all seine harte Arbeit in den letzten Monaten danken. Wir sehen einer glänzenden Zukunft entgegen und ich bin zuversichtlich, dass wir mit dem Einsatz und dem Engagement unseres Teams Großes erreichen werden. Vielen Dank, dass Sie Teil unseres Teams sind. Ich freue mich auf die Zusammenarbeit mit Ihnen allen in den kommenden Wochen und Monaten. Mit freundlichen Grüßen [Ihr Name]. |
Komplexe Anweisungen | Schreibe eine Einleitung für einen wöchentlichen Newsletter, einschließlich der folgenden Aspekte: - Mein Unternehmen heißt Contoso - Beginne mit einem überschwänglichen Gruß - Dank an das Team für die harte Arbeit über ein paar harte Monate - Positiver Ausblick für das kommende Quartal - Signiert vom SLT |
Hallo Contoso-Team! Ich wollte mir einen Moment Zeit nehmen, um Ihnen für all Ihre harte Arbeit in den letzten Monaten zu danken. Es waren ein paar harte Monate, aber Sie haben alle an einem Strang gezogen und einen fantastischen Job gemacht. Ich bin wirklich stolz auf Sie alle. Mit Blick auf das nächste Quartal bin ich wirklich positiv gestimmt. Ich denke, wir werden einige großartige Dinge erreichen. Nochmals vielen Dank, das Senior Leadership Team. |
Hauptinhalt
Hauptinhalt bezieht sich auf eine Art von Text, der vom Modell verarbeitet oder transformiert wird. Hauptinhalt wird in der Regel in Verbindung mit Anweisungen verwendet. Ein einfaches Beispiel wäre die Sprachübersetzung. Im folgenden Beispiel wird der deutsche Text als Hauptinhalt betrachtet, während „Übersetze ins Französische:“ eine Anweisung ist.
Prompt | Completion |
---|---|
Können Sie mir bitte sagen, wie ich zum Museum komme? Übersetze ins Französische: |
Pouvez-vous s'il vous plaît me dire comment aller au musée? |
Hauptinhalt kann auch viel länger sein. Im folgenden Beispiel ist der Hauptinhalt der Einführungsabschnitt aus dem Wikipedia-Eintrag zur Zeitkomplexität, der fast 300 Wörter lang ist. In unserer Tabelle wurde dieser Inhalt zur Vereinfachung der Anzeige abgekürzt.
Prompt | Completion |
---|---|
Unter der Zeitkomplexität eines Problems wird in der Informatik die Anzahl der Rechenschritte verstanden, die ein optimaler Algorithmus zur Lösung dieses Problems benötigt, in Abhängigkeit von der Länge der Eingabe. Man spricht hier auch von der asymptotischen Laufzeit [...] Fasse den vorangehenden Text in ein paar Sätzen zusammen: |
Die Zeitkomplexität ist ein Maß dafür, wie lange die Ausführung eines Algorithmus dauert. Sie wird in der Regel als Funktion der Größe der Eingabe ausgedrückt. Das gebräuchlichste Maß ist die Worst-Case-Zeitkomplexität, d. h. die maximale Zeit, die für Eingaben einer bestimmten Größe benötigt wird. |
Unter der Zeitkomplexität eines Problems wird in der Informatik die Anzahl der Rechenschritte verstanden, die ein optimaler Algorithmus zur Lösung dieses Problems benötigt, in Abhängigkeit von der Länge der Eingabe. Man spricht hier auch von der asymptotischen Laufzeit [...]TL;DR (Zu lang, nicht gelesen) |
Die Zeitkomplexität eines Algorithmus ist die Zeit, die zum Ausführen eines Algorithmus benötigt wird. Die Zeitkomplexität wird in der Regel durch Zählen der vom Algorithmus durchgeführten Elementaroperationen geschätzt, wobei angenommen wird, dass jede Elementaroperation eine feste Zeitspanne für die Durchführung benötigt. Die Zeitkomplexität wird in der Regel als Funktion der Größe der Eingabe ausgedrückt. |
GPT-Modelle können auch strukturierte Hauptinhalte verarbeiten. Im folgenden Beispiel wird eine TSV mit belgischen Bieren (in diesem Artikel für Anzeige abgekürzt) als Teil der Eingabeaufforderung an das Modell übergeben. Das Modell kann den Inhalt richtig interpretieren und Fragen zu den Daten beantworten.
Prompt | Completion |
---|---|
Belgian Beer Brands Beer name Beer style color ABV Brewery "Chimay Gold: ""Doree""" trappist pale ale gold 4.80% Chimay Brewery (official trappist) "Chimay Blue: ""Grande Reserve""" trappist dark ale dark 9.00% […] Wie viele Biere haben laut der Tabelle oben weniger als 6 % Alkoholgehalt (ABV)? |
Es gibt 10 Biere in der Tabelle, die weniger als 6 % Alkoholgehalt (ABV) haben. |
Beispiele
Erfolgreiche Prompts basieren häufig auf der Praxis des One-Shot- oder Few-Shot-Lernens. Damit ist die Aufnahme von einem oder mehreren Beispielen für das gewünschte Verhalten des Modells gemeint, in der Regel durch Einbeziehung von Eingabe- und Ausgabepaaren. Durch diese Art von Lernen wird das Modell nicht dauerhaft geändert. Vielmehr konditionieren die Beispiele das Modell darauf, nur auf die aktuelle Schlussforderung wie gewünscht zu reagieren. Die Verwendung von Prompts ohne Beispielen wird manchmal als Zero-Shot-Lernen bezeichnet. Beachten Sie, dass mit der Chat Completion-API dem Nachrichtenarray in der Regel nach der ersten Systemnachricht Few-Shot-Lernbeispiele in Form von Beispielinteraktionen zwischen Benutzern und Assistent hinzugefügt werden.
Lerntyp | Prompt | Completion |
---|---|---|
Zero-shot | Überschrift: Trainer zuversichtlich, dass Verletzungen die Warriors nicht aus der Bahn werfen werden Thema: |
Der Trainer ist zuversichtlich, dass die Verletzung den Warriors die Saison nicht verderben wird. Das Team konzentriert sich nach wie vor auf seine Ziele und wird weiterhin hart daran arbeiten, sie zu erreichen. |
Few-shot | Überschrift: Twins Correa nutzt Ausstiegsoption und testet unabhängige Agentur Thema: Baseball Überschrift: Bei der WM in Katar soll es Bereiche zur Ausnüchterung geben Thema: Fußball Überschrift: Yates: Tipps für Fantasy Football in Woche 6 Thema: American Football Überschrift: Trainer zuversichtlich, dass Verletzungen die Warriors nicht aus der Bahn werfen werden Thema: |
Basketball |
Im obigen Beispiel wird der Nutzen des Few-Shot-Lernens veranschaulicht. Ohne die Beispiele scheint das Modell das gewünschte Verhalten zu erraten, während die Beispiele dem Modell eindeutig sagen, wie es funktionieren soll. Dies zeigt auch die Leistungsfähigkeit des Modells. Es kann die gewünschte Kategorie der Bezeichnung ableiten, auch ohne die Bezeichnung „Basketball“ in den Beispielen.
Position (Cue)
Hinweise dienen als „Starthilfe“ für die Ausgabe des Modells und helfen dabei, das Modell zum gewünschten Ergebnis zu führen. Häufig handelt es sich um ein Präfix, auf dem das Modell aufbauen kann. Im folgenden Beispiel zeigen wir Hinweise, die die Antwort lenken, so dass wichtige Elemente enthalten sind. Hinweise werden häufig zusammen mit Anweisungen verwendet, aber nicht immer. In den folgenden Beispielen wird das Modell verwendet, um eine lange E-Mail mit einer Ankündigung zusammenzufassen. In einem Fall wird ein Hinweis verwendet, um die Ausgabe des Modells zu fokussieren und in einem anderen Fall ein bestimmtes Ausgabeformat (Aufzählungszeichen) vorzuschlagen.
Im Kontext der Chat Vervollständigungs-API haben Anweisungen die Form einer Systemnachricht. Es werden Few-Shot-Beispiele angegeben, indem eine Reihe von Beispielinteraktionen zwischen Benutzer und Assistent zur Verfügung gestellt werden, um das Modell zu optimieren.
Anzahl der Hinweise | Prompt | Completion |
---|---|---|
0 | Leistungsüberprüfungen sind eine Kernkomponente unseres Leistungs- und Entwicklungskonzepts bei Contoso. […] Fasse die obigen E-Mail-Nachricht zusammen: |
Mit dieser E-Mail sollen Mitarbeitende über die jüngsten Änderungen bei der Leistungsüberprüfung informiert werden, die Teil des Leistungs- und Entwicklungskonzepts von Contoso sind. Die Änderungen umfassen eine verbesserte Struktur, ein verbessertes Benutzererlebnis im Tool und gezielte Prompts. Außerdem gibt es jetzt den optionalen Bereich Gesprächsstarter, in dem die Mitarbeiter Themen eintragen können, die sie mit ihren Vorgesetzten besprechen möchten. |
1 | Leistungsüberprüfungen sind eine Kernkomponente unseres Leistungs- und Entwicklungskonzepts bei Contoso. […] Fasse die obigen E-Mail-Nachricht zusammen: Die wichtigste Erkenntnis der Nachricht ist |
dass Contoso die Leistungsprüfung verbessert, indem es sich stärker auf die Kernprioritäten, Erwartungen und Auswirkungen konzentriert. Darüber hinaus wurde die Benutzeroberfläche des Tools mit Tipps, Ressourcen und Leitfäden aktualisiert. Schließlich wurden Anleitungen zur Aktivierung unternehmensweiter Kernprioritäten hinzugefügt. |
2 | Leistungsüberprüfungen sind eine Kernkomponente unseres Leistungs- und Entwicklungskonzepts bei Contoso. […] Fasse die obigen E-Mail-Nachricht zusammen: Wichtigste Punkte: • |
Contoso führt Änderungen an der Leistungsüberprüfung ein, die auf dem Feedback von Mitarbeitern basieren. • Die Änderungen umfassen einen neuen Schwerpunkt auf den Kernprioritäten, Erwartungen und Auswirkungen; eine verbesserte Benutzererfahrung; und neue Leitlinien zu unternehmensweiten Kernprioritäten. • Leistungsüberprüfungen sind eine Gelegenheit, um über vergangene Leistungen und Lernerfolge nachzudenken und zukünftige Prioritäten und Wachstumschancen zu planen. • Mitarbeiter und Vorgesetzte sollten Ihre Kommentare vor der Leistungsüberprüfung verfassen. • Es sollten mindestens zwei Leistungsüberprüfungen pro Jahr erfolgen. • Der Zeitaufwand für jede Überprüfung sollte ungefähr gleich bleiben. |
Unterstützender Inhalt
Ergänzende Inhalte sind Informationen, die das Modell verwenden kann, um die Ausgabe in irgendeiner Weise zu beeinflussen. Sie unterscheiden sich von Hauptinhalten darin, dass sie nicht das Hauptziel der Aufgabe sind, sondern in der Regel zusammen mit Hauptinhalt verwendet wird. Häufige Beispiele sind Kontextinformationen wie das aktuelle Datum, der Name des Benutzers, Benutzereinstellungen usw. Im folgenden Beispiel werden ergänzende Inhalte verwendet, um eine Reihe von geplanten Workshops für den Benutzer zu organisieren. Ohne die ergänzenden Inhalte (wichtigen Themen) listet das Modell einfach die Workshops (zur Anzeige gekürzt) auf. Wenn es über die Themen, die mir wichtig sind, informiert ist, kann das Modell die Meetings angemessen gruppieren.
Hilfreiche Themen | Prompt | Completion |
---|---|---|
Ohne | Workshopliste: Titel Beschreibung Planung Workshop Kickoff Bitte kommen Sie zur Auftaktveranstaltung unseres Workshops! Erfahren Sie von unseren Führungskräften, welche Prioritäten gruppenübergreifend gelten und was sie für das kommende Jahr gelernt haben. Die Einladung zu dieser Veranstaltung wurde bereits an alle Mitglieder von [...] Fasse die obigen Workshops gruppiert nach Themen zusammen: |
Workshopliste: Planung Workshop Kickoff - Planung Abschluss-Workshop - Core MeetUp - Kundenorientierte Perspektiven - Auswirkungs- und Schwerpunktbereiche - Bewährte Methoden - Beschleunigung der App-Einführung [...] |
With | Workshopliste: Titel Beschreibung Planung Workshop Kickoff Bitte kommen Sie zur Auftaktveranstaltung unseres Workshops! Erfahren Sie von unseren Führungskräften, welche Prioritäten gruppenübergreifend gelten und was sie für das kommende Jahr gelernt haben. Die Einladung zu dieser Veranstaltung wurde bereits an alle Mitglieder von [...] Meine wichtigen Themen: Prompt Engineering, Suche, GPT-Modelle Fasse die obigen Workshops zusammen, gruppiert nach meinen wichtigen Themen: |
1. Prompt Engineering: - Neue Tipps zum Prompt Engineering - Die Kunst des Prompt Engineering 2. Suche: - Einführung in die Vektorsuche mit Einbettung 3. GPT-Modelle: - Einführung in GPT-4 – GPT-35-Turbo – Vertiefung. |
Szenariospezifischer Leitfaden
Während die Prinzipien des Prompt Engineerings über viele verschiedene Modelltypen hinweg verallgemeinert werden können, erwarten bestimmte Modelle eine spezialisierte Struktur der Eingabeaufforderung. Für Azure OpenAI GPT-Modelle gibt es derzeit zwei unterschiedliche APIs, bei denen Prompt Engineering ins Spiel kommt:
- Chatvervollständigungs-API
- Vervollständigungs-API.
Jede API erfordert, dass Eingabedaten unterschiedlich formatiert werden, was sich wiederum auf den Gesamtentwurf von Eingabeaufforderungen auswirkt. Die Chat Completion-API unterstützt die Modelle GPT-35-Turbo und GPT-4. Diese Modelle sind so konzipiert, dass sie Eingaben entgegennehmen, die in einem spezifischen Chat-ähnlichen Transkript formatiert sind, das in einem Array von Wörterbüchern gespeichert ist.
Die Vervollständigungs-API unterstützt die älteren GPT-3-Modelle und hat wesentlich flexiblere Eingabeanforderungen, da sie eine Textzeichenfolge ohne bestimmte Formatregeln akzeptiert.
Die Techniken in diesem Abschnitt vermitteln Ihnen Strategien zum Erhöhen der Genauigkeit und der Grundlage von Antworten, die Sie mit einem großen Sprachmodell (Large Language Model, LLM) generieren. Es ist jedoch wichtig, sich daran zu erinnern, dass Sie auch bei effektiver Verwendung von Prompt Engineering die von den Modellen generierten Antworten validieren müssen. Nur weil eine sorgfältig gestaltete Eingabeaufforderung für ein bestimmtes Szenario gut funktioniert hat, bedeutet dies nicht unbedingt, dass sie für bestimmte Anwendungsfälle verallgemeinert werden kann. Die Einschränkungen von LLMs zu verstehen, ist genauso wichtig wie zu verstehen, wie sie ihre Stärken nutzen können.
Dieser Leitfaden geht nicht im Detail auf die Mechanismen hinter der Nachrichtenstruktur für Chatvervollständigungen ein. Wenn Sie mit der programmgesteuerten Interaktion mit Chatvervollständigungen nicht vertraut sind, empfehlen wir Ihnen, zunächst unsere Schrittanleitung zur Chatvervollständigungs-API zu lesen.
Hinweis
Alle Beispiele in diesem Abschnitt des Leitfadens wurden mit einem GPT-4-Basismodell in Englisch getestet. Wenn Sie eine lokalisierte Version dieses Artikels in einer anderen Sprache lesen, stellen diese Antworten eine lokalisierte Übersetzung der englischen Ergebnisse dar. Weitere Informationen zu möglichen Einschränkungen in Abhängigkeit von der Sprache, die Sie zum Auffordern eines Modells verwenden, finden Sie in unserem Transparenzhinweis zur verantwortungsvoller KI.
Few-Shot-Lernen
Ein gängiger Weg zum Anpassen von Sprachmodellen an neue Aufgaben ist die Verwendung von „Few-Shot-Lernen“. Beim Few-Shot-Lernen wird eine Reihe von Trainingsbeispielen als Teil der Eingabeaufforderung bereitgestellt, um dem Modell zusätzlichen Kontext zu geben.
Bei Verwendung der Chatvervollständigungs-API kann eine Reihe von Nachrichten zwischen dem Benutzer und dem Assistenten (geschrieben im neuen Eingabeaufforderungsformat) als Beispiele für wenige das Few-Short-Lernen dienen. Diese Beispiele können verwendet werden, um das Modell zu veranlassen, auf eine bestimmte Weise zu reagieren, bestimmte Verhaltensweisen nachzuahmen und Antworten auf häufig gestellte Fragen zu geben.
Systemnachricht | Few-Shot-Beispiele |
---|---|
Der Assistant ist ein intelligenter Chatbot, der Benutzern hilft, ihre steuerbezogenen Fragen zu beantworten. Instructions – Beantworten Sie nur Fragen im Zusammenhang mit Steuern. – Wenn Sie sich einer Antwort nicht sicher sind, können Sie „Ich weiß es nicht“ oder „Ich bin nicht sicher“ sagen und Benutzern empfehlen, auf die Website der Steuerbehörde zu gehen, um weitere Informationen zu erhalten. |
Benutzer – „Bis wann muss ich meine Steuern einreichen?“ Assistent – „Im Jahr 2023 müssen Sie Ihre Steuererklärung bis zum 18. April abgeben. Das Datum liegt hinter dem normalen Termin vom 15. April, da der 15. April im Jahr 2023 auf einen Samstag fällt. Weitere Informationen finden Sie unter https://www.irs.gov/filing/individuals/when-to-file “ Benutzer – „Wie kann ich die Status meiner Steuerrückerstattung überprüfen?“ Assistent: – „Sie können die Status Ihrer Steuerrückerstattung überprüfen, indem Sie https://www.irs.gov/refunds besuchen “ |
In der obigen Tabelle wird die grundlegende Eingabeaufforderungsstruktur beschrieben, aber für eine detaillierte Erläuterung des genauen Eingabeaufforderungsformats müssen Sie im Leitfaden zur Chatvervollständigung nachschlagen.
Nicht-Chatszenarien
Während die Chatvervollständigungs-API für die Arbeit mit mehrteiligen Unterhaltungen optimiert ist, kann sie auch für Nicht-Chatszenarien verwendet werden. Für ein Stimmungsanalyseszenario können Sie beispielsweise die folgende Eingabeaufforderung verwenden:
Systemnachricht | Benutzer | Assistant |
---|---|---|
Sie sind ein Assistent, der die Stimmung von Sprachdaten analysiert. Die Benutzer fügen einen Text ein und Sie antworten mit einer Bewertung der Antwort des Sprechers. Bewerten Sie auf einer Skala von 1–10 (10 ist die höchste Bewertung). Erläutern Sie, warum diese Bewertung gegeben wurde. | Hallo, danke für Ihren Anruf bei der Contoso-Apotheke. Mit wem spreche ich heute? Ich verstehe Ihre Frustration, Mary. Können Sie mir sagen, was genau Sie zu erreichen versuchen? OK, mmh, sicher, ich bin gerne bereit, das für Sie zu überprüfen. Einen Moment bitte. Ich sehe hier, dass Sie ein Lipitor-Generikum eingenommen haben, ist das richtig? Ok, mmh, ich sehe hier, dass Ihr Arzt Ihnen diese Medikamente seit Zwanzig-Einundzwanzig nicht mehr verschrieben hat. OK, sicher, ich bin gern bereit, das für Sie zu überprüfen, denn manchmal gibt es eine Lücke im System, und es wird einfach nicht gemeldet, also lassen Sie es mich überprüfen, nur einen Moment bitte. Also, ich sehe, dass Ihr Arzt Ihnen dieses Medikament von Zwanzig-Zwölf bis Zwanzig-Einundzwanzig verschrieben hatte. Ok, mmh, gemäß den letzten Eintragungen, die von der Arztpraxis zur Verfügung gestellt wurden, nehmen Sie jetzt ein anderes Medikament ein, Metformin. Möchten Sie, dass wir ein Rezept für Sie ausfüllen, damit Sie eine kleine Menge in Form von fünfhundert Milligramm abholen können? Mmh, gerne geschehen, Mary. Bitte lassen Sie uns wissen, ob wir heute noch etwas für Sie tun können. | Stimmungsbewertung: 8 Der Sprecher in diesem Text scheint höflich, hilfsbereit und geduldig zu sein, während er auf die Anliegen des Kunden eingeht. Er nimmt sich die Zeit, die Informationen zu überprüfen, klare Erläuterungen zu geben und Hilfe anzubieten. Die Bewertung ist jedoch keine 10, da in einigen Teilen des Gesprächs immer noch ein Hauch von Unsicherheit zu spüren ist, der dem Kunden vielleicht nicht das volle Vertrauen vermittelt. |
Starten mit klaren Anweisungen
Die Sequenzinformationen erscheinen in der Eingabeaufforderung. Dies liegt daran, dass Modelle im GPT-Stil auf eine bestimmte Weise erstellt werden, die definiert, wie sie die Eingabe verarbeiten. Unsere Forschungsergebnisse deuten darauf hin, dass es für das Erzielen qualitativ hochwertigerer Ergebnisse hilfreich sein kann, dem Modell zu Beginn der Eingabeaufforderung die gewünschte Aufgabe zu stellen, bevor zusätzliche Kontextinformationen oder Beispiele gegeben werden.
Hinweis
Obwohl die Anwendung dieser Technik im Gegensatz zu früheren Modellversionen (GPT-3 und früher) weiterhin generell empfohlen wird, haben unsere Tests gezeigt, dass die Modellantwort mit ChatGPT- und GPT-4-Modellen die gleiche war, unabhängig davon, ob die Technik verwendet wird. Im Falle des unten stehenden Beispiels sehen wir, dass das Hinzufügen der Aussage „Mehrere Quellen… Ausbruchs“ am Anfang oder am Ende der Eingabeaufforderung keine Veränderung der endgültigen Modellantwort bewirkt.
Systemnachricht | Benutzer | Assistant |
---|---|---|
Sie sind ein KI-Assistent, der Menschen hilft, Informationen zu finden. | Ihre Aufgabe besteht darin, zu überprüfen, ob die Aussage „Mehrere Quellen erwähnen die Möglichkeit eines weiteren großen Ausbruchs“ von einem bestimmten Zitat aus den folgenden Textausschnitten unterstützt wird. --- TEXTAUSSCHNITTE [1] 14-prozentige Wahrscheinlichkeit, dass ein Megabeben auf Seattle trifft, sagen Experten SEATTLE – Es besteht eine 14-prozentige Wahrscheinlichkeit, dass in den nächsten 50 Jahren ein Cascadia-Erdbeben der Stärke 9 auf Seattle trifft, schätzt der U.S. Geological Survey. „Leider sind wir nicht in der Lage,... [2] Erdbebenexperten geben neueste Prognosen für das „wirklich große Erdbeben“ in Seattle ab „Wir gehen davon aus, dass die Wahrscheinlichkeit eines weiteren Erdbebens der Stärke 9 in den nächsten 50 Jahren bei etwa 14 % liegt", sagte ein Geophysiker der University of Washington... --- Ist die Aussage „Mehrere Quellen erwähnen die Möglichkeit eines weiteren großen Ausbruchs“ durch die Textausschnitte direkt impliziert oder angegeben? |
Nein, die Aussage wird durch die Inhaltsausschnitte nicht direkt angedeutet oder erklärt. Die Inhaltsausschnitte erwähnen die Möglichkeit eines „Mega-Bebens“ und eines „Cascadia-Erdbebens der Stärke 9“, das Seattle in den nächsten 50 Jahren treffen könnte, aber sie erwähnen nicht die Möglichkeit eines weiteren großen Ausbruchs. |
Wiederholen der Anweisungen am Ende
Modelle können anfällig für Aktualitätsverzerrung sein, was in diesem Kontext bedeutet, dass Informationen am Ende der Eingabeaufforderung einen größeren Einfluss auf die Ausgabe haben als Informationen am Anfang der Eingabeaufforderung. Daher lohnt es sich, mit der Wiederholung der Anweisungen am Ende der Eingabeaufforderung zu experimentieren und die Auswirkungen auf die erzeugte Antwort zu bewerten.
Vorbereiten der Ausgabe
Dies bezieht sich auf das Einschließen einiger Wörter oder Ausdrücke am Ende der Eingabeaufforderung, um eine Modellantwort zu erhalten, die der gewünschten Form entspricht. Wenn Sie beispielsweise einen Hinweis wie z. B. “Here’s a bulleted list of key points:\n- ”
verwenden, können Sie sicherstellen, dass die Ausgabe als Liste von Aufzählungszeichen formatiert ist.
Systemnachricht | Benutzer | Assistant |
---|---|---|
Sie sind ein KI-Assistent, der Menschen hilft, Informationen zu finden. Antworten Sie in so wenigen Worten wie möglich. | John Smith ist mit Lucy Smith verheiratet. Sie haben fünf Kinder, und er arbeitet als Softwareingenieur bei Microsoft. Welche Suchabfragen sollte ich ausführen, um dies zu überprüfen? ## Eine mögliche Suchabfrage ist: | „John Smith verheiratet Lucy Smith fünf Kinder Softwareingenieur Microsoft“ |
In der obigen Eingabeaufforderung veranlasst der Text Eine mögliche Suchabfrage ist: das Modell dazu, eine einzelne Ausgabe zu erzeugen. Ohne diesen Hinweis erzeugt das Modell mehrere Suchabfragen als Ausgabe.
Hinzufügen einer klaren Syntax
Die Verwendung einer klaren Syntax für Ihre Eingabeaufforderung – einschließlich Interpunktion, Überschriften und Abschnittsmarkierungen – hilft bei der Kommunikation der Absicht und erleichtert häufig das Analysieren von Ausgaben.
Im folgenden Beispiel wurden Trennzeichen (in diesem Fall ---
) zwischen verschiedenen Informationsquellen oder Schritten hinzugefügt. Dies ermöglicht die Verwendung von ---
als Beendigungsbedingung für die Erstellung. Außerdem werden Abschnittsüberschriften oder spezielle Variablen in Großbuchstaben dargestellt, um sie zu unterscheiden.
Systemnachricht | Benutzer | Assistant |
---|---|---|
Sie sind ein KI-Assistent, der Menschen hilft, Informationen zu finden. | Sie lesen einen Absatz und stellen dann Anfragen an eine Suchmaschine, um ihn auf Fakten zu überprüfen. Erläutern Sie auch die Abfragen. --- ABSATZ John Smith ist mit Lucy Smith verheiratet. Sie haben fünf Kinder, und er arbeitet als Softwareingenieur bei Microsoft. Welche Suchabfragen sollte ich ausführen, um dies zu überprüfen? --- QUERIES |
1. „John Smith Microsoft“ – Um zu überprüfen, ob John Smith tatsächlich bei Microsoft beschäftigt ist. 2. „John Smith Lucy Smith“ – Um zu überprüfen, ob John Smith mit Lucy Smith verheiratet ist. 3. „John Smith Kinder“ – Um zu überprüfen, ob John Smith fünf Kinder hat. |
Wenn Sie nicht sicher sind, welche Syntax Sie verwenden sollen, sollten Sie Markdown oder XML in Betracht ziehen. Die Modelle wurden mit einer großen Menge an Webinhalten in XML und Markdown trainiert, was möglicherweise bessere Ergebnisse liefert.
Unterteilen der Aufgabe
Große Sprachmodelle (Large Language Models, LLMs) funktionieren häufig besser, wenn die Aufgabe in kleinere Schritte unterteilt wird. Bei der oben erwähnten Suchabfrage kann die Eingabeaufforderung z. B. so umstrukturiert werden, dass das Modell zunächst angewiesen wird, relevante Fakten zu extrahieren, und dann angewiesen wird, Suchabfragen zu generieren, die zur Überprüfung dieser Fakten verwendet werden können.
Systemnachricht | Benutzer | Assistant |
---|---|---|
Sie sind ein KI-Assistent, der Menschen hilft, Informationen zu finden. | Sie lesen einen Absatz und stellen dann Anfragen an eine Suchmaschine, um ihn auf Fakten zu überprüfen. --- ABSATZ John Smith ist mit Lucy Smith verheiratet. Sie haben fünf Kinder, und er arbeitet als Softwareingenieur bei Microsoft. Welche Suchabfragen sollte ich ausführen, um dies zu überprüfen? --- Jetzt extrahieren Sie Tatsachenbehauptungen und stellen Abfragen, um sie zu überprüfen. Verwenden Sie beim Durchführen einer Abfrage die Funktion SEARCH("query") TATSACHENBEHAUPTUNGEN |
1. John Smith ist mit Lucy Smith verheiratet. 2. Sie haben fünf Kinder 3. Er arbeitet als Softwareingenieur bei Microsoft QUERIES SEARCH("John Smith heiratete Lucy Smith") SEARCH("John Smith Familiengröße") SEARCH("John Smith Microsoft Softwareingenieur") |
Beachten Sie die Verwendung einer klaren Syntax, um die Abschnitte zu unterscheiden und die Ausgabe vorzubereiten. In diesem einfachen Beispiel ist das Herunterbrechen der Aufgabe von einem auf zwei Schritte nicht sehr dramatisch, aber wenn Sie versuchen, dies für einen größeren Text mit vielen Tatsachenbehauptungen zu tun, kann das Herunterbrechen der Aufgabe einen erheblichen Unterschied machen.
Nutzung von Erleichterungen
Manchmal können wir das Modell dazu bringen, ein Angebot zu verwenden, anstatt sich auf seine eigenen Parameter für Informationen und Antworten zu verlassen. Die Suche kann beispielsweise ein Angebot sein, um bei der Entschärfung erfundener Antworten zu helfen und aktuelle Informationen zu erhalten.
Eine einfache Möglichkeit, ein Angebot zu verwenden, besteht darin, die Generierung zu stoppen, sobald die Angebotsaufrufe vom Modell generiert wurden, und dann die Ergebnisse wieder in die Eingabeaufforderung einzufügen. Nachstehend finden Sie ein Beispiel dafür, was der Folgeaufruf nach den oben genannten SEARCH-Aufrufen sein könnte. Beachten Sie, wie wir die Suchergebnisse in die Eingabeaufforderung eingefügt und die vorherigen SEARCH-Aufrufe ersetzt haben.
Systemnachricht | Benutzer | Assistant |
---|---|---|
Sie sind ein KI-Assistent, der Menschen hilft, Informationen zu finden. | Sie lesen einen Absatz, extrahieren Tatsachenbehauptungen und nutzen dann Suchmaschinenergebnisse, um sie zu überprüfen --- ABSATZ John Smith ist mit Lucy Smith verheiratet. Sie haben fünf Kinder, und er arbeitet als Softwareingenieur bei Microsoft. Welche Suchabfragen sollte ich ausführen, um dies zu überprüfen? --- TATSACHENBEHAUPTUNGEN – John Smith ist mit Lucy Smith verheiratet – John und Lucy haben fünf Kinder – John arbeitet als Softwareingenieur bei Microsoft --- Hier sind verschiedene Suchabfragen, die ausgegeben wurden, um die oben genannten Behauptungen zu untersuchen: SUCHABFRAGEN – John Smith verheiratet mit Lucy Smith – John Smith Anzahl der Kinder – John Smith Softwareingenieur Microsoft --- Hier sind Textausschnitte der Suchergebnisse: TEXTAUSSCHNITTE: [1] … John Smiths Hochzeit war am 25. September 2012… [2] … John Smith wurde von seiner Frau Lucy zu einer Party begleitet [3] John wurde von seinen beiden Töchtern und drei Söhnen zum Fußballspiel begleitet [4] … Nach 10 Jahren bei Microsoft gründete Smith sein eigenes Startup „Tailspin Toys“ [5] John M. ist der Dorfschmied, und er heiratete Fiona. Sie haben eine Tochter namens Lucy --- Überprüfen Sie anhand der Textausschnitte jeden der obigen Tatsachenbehauptungen: |
– John Smith ist mit Lucy Smith verheiratet: Bestätigt. Textausschnitte [1] und [2] erwähnen beide Lucy als Frau von John Smith. – John und Lucy haben fünf Kinder: Bestätigt. Textausschnitt [3] erwähnt, dass John von seinen zwei Töchtern und drei Söhnen begleitet wurde. – John arbeitet als Softwareingenieur bei Microsoft: Teilweise bestätigt. Inhaltsausschnitt [4] erwähnt, dass John 10 Jahre bei Microsoft gearbeitet hat, aber es wird nicht explizit angegeben, dass er derzeit dort arbeitet. Weitere Nachforschungen könnten erforderlich sein, um seinen aktuellen Beschäftigungsstatus zu bestätigen. |
Eingabeaufforderung als Denkkette
Dies ist eine Variante der Technik Unterteilen der Aufgabe. Anstatt eine Aufgabe in kleinere Schritte aufzuteilen, wird bei diesem Ansatz die Modellantwort angewiesen, Schritt für Schritt vorzugehen und alle beteiligten Schritte darzustellen. Dadurch wird die Wahrscheinlichkeit einer Ungenauigkeit der Ergebnisse verringert und die Bewertung der Modellantwort erleichtert.
Systemnachricht | Benutzer | Assistant |
---|---|---|
Sie sind ein KI-Assistent, der Menschen hilft, Informationen zu finden. | Wer war der am höchstdekorierte (am meisten Medaillen) Einzelsportler bei den Olympischen Spielen, die in Sydney stattfanden? Gehen Sie bei Ihrer Antwort schrittweise vor, zitieren Sie Quellen und geben Sie eine Begründung, bevor Sie die endgültige Antwort im unten stehenden Format mitteilen: ANTWORT ist: <name> |
Schritt 1: Bestimmen Sie das Jahr der Olympischen Spiele in Sydney. Die Olympischen Spiele in Sydney fanden im Jahr 2000 statt. Schritt 2: Finden Sie eine Liste von Einzelsportlern, die bei den Olympischen Spielen 2000 in Sydney mehrere Medaillen gewonnen haben. Laut der offiziellen Website der Olympischen Spiele gab es mehrere Einzelsportler, die bei den Olympischen Spielen 2000 in Sydney mehrere Medaillen gewonnen haben. Einige der bekannteren Namen sind: • Ian Thorpe (Australien) – 3 Gold, 2 Silber, 0 Bronze • Pieter van den Hoogenband (Niederlande) – 2 Gold, 0 Silber, 2 Bronze • Lenny Krayzelburg (USA) – 3 Gold, 0 Silber, 0 Bronze • Inge de Bruijn (Niederlande) – 3 Gold, 1 Silber, 0 Bronze Schritt 3: Bestimmen Sie den Sportler mit den meisten Medaillen. Nach der Überprüfung der Liste der Einzelsportler, die mehrere Medaillen bei den Olympischen Spielen 2000 in Sydney gewonnen haben, können wir sehen, dass der Sportler mit den meisten Medaillen der Australier Ian Thorpe ist, der insgesamt 5 Medaillen (3 Gold und 2 Silber) gewonnen hat. Daher lautet die ANTWORT: Ian Thorpe. |
Angeben der Ausgabestruktur
Die Verwendung Ihrer Eingabeaufforderung, um die Struktur der Ausgabe festzulegen, kann einen erheblichen Einfluss auf die Art und Qualität der Ergebnisse haben. Manchmal sind Systemmeldungen wie „Schreiben Sie nur wahre Tatsachen“ oder „Fälschen Sie keine Informationen“ keine ausreichende Entschärfung. Wenn man stattdessen verlangt, dass die Modellantwort auch Zitate enthält, kann dies dazu beitragen, dass die Zahl der falschen Antworten sinkt.
Wenn Sie das Modell anweisen, bei seinen Aussagen die Quellen zu zitieren, sind diese Aussagen viel wahrscheinlicher fundiert. Die Frage nach Zitaten führt dazu, dass das Modell jedes Mal, wenn es eine Antwort generiert, zwei Fehler machen muss: Der erste Fehler ist die erfundene Antwort, der zweite ist das schlechte Zitat. Beachten Sie, dass je näher das Zitat an dem Text ist, den es unterstützt, desto kürzer ist der Abstand, den das Modell benötigt, um das Zitat zu antizipieren, was darauf hindeutet, dass Inline-Zitate eine bessere Entschärfung für die Generierung falscher Inhalte darstellen als Zitate am Ende des Inhalts.
Wenn Sie das Modell auffordern, Fakten aus einem Absatz zu extrahieren, könnte es auch zusammengesetzte Aussagen extrahieren, wie beispielsweise „X macht Y UND Z“ (was schwieriger zu überprüfen ist). Dies kann vermieden werden, indem Sie eine Ausgabestruktur angeben wie z. B. (Entität1, Beziehung, Entität2).
Die folgenden Beispiele zeigen die Verwendung von Zitaten und die Ausrichtung der Modellantwort auf eine bestimmte Struktur.
Systemnachricht | Benutzer | Assistant |
---|---|---|
Sie sind ein KI-Assistent, der Menschen hilft, Informationen zu finden | Listen Sie die verschiedenen Verhaltensweisen auf, die der Kundendienstmitarbeiter in der folgenden Unterhaltung zeigt. --- Hallo, danke für Ihren Anruf bei der Contoso-Apotheke. Mit wem spreche ich heute? Ich verstehe Ihre Frustration, Mary. Können Sie mir sagen, was genau Sie zu erreichen versuchen? OK, mmh, sicher, ich bin gerne bereit, das für Sie zu überprüfen. Einen Moment bitte. Ich sehe hier, dass Sie ein Lipitor-Generikum eingenommen haben, ist das richtig? Ok, mmh, ich sehe hier, dass Ihr Arzt Ihnen diese Medikamente seit Zwanzig-Einundzwanzig nicht mehr verschrieben hat. OK, sicher, ich bin gern bereit, das für Sie zu überprüfen, denn manchmal gibt es eine Lücke im System, und es wird einfach nicht gemeldet, also lassen Sie es mich überprüfen, nur einen Moment bitte. Also, ich sehe, dass Ihr Arzt Ihnen dieses Medikament von Zwanzig-Zwölf bis Zwanzig-Einundzwanzig verschrieben hatte. Ok, mmh, gemäß den letzten Eintragungen, die von der Arztpraxis zur Verfügung gestellt wurden, nehmen Sie jetzt ein anderes Medikament ein, Metformin. Möchten Sie, dass wir ein Rezept für Sie ausfüllen, damit Sie eine kleine Menge in Form von fünfhundert Milligramm abholen können? Mmh, gerne geschehen, Mary. Bitte lassen Sie uns wissen, ob wir heute noch etwas für Sie tun können. --- Wie war die Antwort des Kundendienstmitarbeiters? Klassifizieren und listen Sie ihre verschiedenen Verhaltensweisen auf, und geben Sie den Grund für die Klassifizierung an, indem Sie das Format VERHALTEN(„Grund“) verwenden |
1. „Höfliche Begrüßung“-VERHALTEN(„Der Agent beginnt das Gespräch mit einer höflichen Begrüßung und fragt nach dem Namen des Anrufers“) 2. Empathisches VERHALTEN(„Der Agent erkennt Marys Frustration an und versucht, ihre Bedenken zu verstehen“) 3. Aufmerksames VERHALTEN(„Der Agent hört sich das Problem des Kunden an und fragt nach weiteren Details") 4. Proaktives VERHALTEN(„Der Agent bietet an, das Problem für den Kunden zu überprüfen“) 5. Informatives VERHALTEN(„Der Agent stellt die relevanten Informationen über die Verschreibungsgeschichte des Kunden bereit“) 6. Gründliches VERHALTEN(„Der Agent prüft auf mögliche Lücken im System und liefert eine vollständige Antwort“) 7. Bestätigendes VERHALTEN(„Der Agent bestätigt das aktuelle Medikament mit dem Kunden“) 8. Lösungsorientiertes VERHALTEN(„Der Agent bietet an, das neue Rezept für den Kunden auszufüllen") 9. Höfliches VERHALTEN(„Der Agent bedankt sich beim Kunden und bietet bei Bedarf weitere Unterstützung an“) |
Systemnachricht | Benutzer | Assistant |
---|---|---|
Sie sind ein KI-Assistent, der Menschen hilft, Informationen zu finden. | Gruppieren Sie die folgenden Schlagzeilen anhand der im Text erkennbaren Muster in Themenkategorien. Nennen Sie auch die Gründe, warum diese Kategorien definiert wurden. Ausgabeformat: { „THEMENNAME“: „“, „ÜBERSCHRIFTEN“: [], „BEGRÜNDUNG“: „“ } Eingabe der Schlagzeilen: 1. „Von Büchern zu Präsentationen in 10er-Schritten mit AR + ML“ 2. „Demo von 1993 des 32-jährigen Yann LeCun, der das weltweit erste Faltungsnetzwerk für Texterkennung vorführt“ 3. „Bewegungsmodell der ersten Ordnung, angewendet auf die Animation von Gemälden“ 4. „Robinhood und andere Broker blockieren buchstäblich den Kauf von $GME, $NOK, $BB, $AMC; erlauben Verkäufe“ 5. „United Airlines-Aktie im vorbörslichem Handel um über 5 % nach unten“ Ausgabe: |
{ „KÜNSTLICHE INTELLIGENZ“: { „ÜBERSCHRIFTEN“: [ „Von Büchern zu Präsentationen in 10er-Schritten mit AR + ML“ „Demo von 1993 des 32-jährigen Yann LeCun, der das weltweit erste Faltungsnetzwerk für Texterkennung vorführt“ 3„Bewegungsmodell der ersten Ordnung, angewendet auf die Animation von Gemälden“ ], „BEGRÜNDUNG“: „Diese Schlagzeilen beziehen sich auf künstliche Intelligenz, maschinelles Lernen und deren Anwendungen in verschiedenen Bereichen." }, „FINANZMÄRKTE“: { „ÜBERSCHRIFTEN“: [ „Robinhood und andere Broker blockieren buchstäblich den Kauf von $GME, $NOK, $BB, $AMC; erlauben Verkäufe“ „United Airlines-Aktie im vorbörslichem Handel um über 5 % nach unten“ „Bitcoin war heute vor einem Jahr fast 20 000 USD“ ], „BEGRÜNDUNG“: „Diese Schlagzeilen beziehen sich auf Finanzmärkte, Aktien, Kryptowährungen und Handelsplattformen.“ } } |
Temperatur- und Top_p Parameter
Durch Ändern des Temperaturparameters wird die Ausgabe des Modells geändert. Der Temperaturparameter kann zwischen 0 und 2 festgelegt werden. Ein höherer Wert, z. B. 0,7, macht die Ausgabe zufälliger und erzeugt mehr abweichende Antworten, während ein niedrigerer Wert, wie z. B. 0,2, macht die Ausgabe konzentrierter und konkreter. Eine fiktive Geschichte könnte mit einer höheren Temperatur generiert werden. Zum Generieren eines juristischen Dokuments wird jedoch empfohlen, eine viel niedrigere Temperatur zu verwenden. Top_probability ist ein weiterer Parameter, der ähnlich wie die Temperatur die Zufälligkeit der Modellantwort steuert, allerdings auf eine andere Weise. Die allgemeine Empfehlung besteht darin, jeweils nur einen dieser beiden Parameter zu ändern, nicht beide gleichzeitig.
Bereitstellen des Grundlagenkontextes
Eine der effektivsten Möglichkeiten, zuverlässige Antworten zu geben, besteht darin, dem Modell Daten zur Verfügung zu stellen, aus denen es seine Antworten ableiten kann (Grundlagendaten). Wenn Ihr Anwendungsfall auf aktuelle, verlässliche Informationen angewiesen ist und es sich nicht um ein rein kreatives Szenario handelt, empfehlen wir dringend die Bereitstellung von Grundlagendaten. Im Allgemeinen gilt: Je näher Sie Ihr Quellmaterial an die endgültige Form der gewünschten Antwort heranführen können, desto weniger Arbeit muss das Modell leisten, was bedeutet, dass es weniger Möglichkeiten für Fehler gibt. Hier ist ein Beispiel, in welchem dem System ein aktueller Blog zur Verfügung gestellt wird, der die Einführung von GPT-4 in Azure OpenAI Service beschreibt, und es gebeten wird, einige seiner frühen Kunden zu nennen.
Systemnachricht | Benutzer | Assistant |
---|---|---|
Sie sind ein KI-Assistent, der Menschen hilft, Informationen zu finden. Sie werden ausschließlich Antworten aus dem unten stehenden Text geben und in maximal 100 Wörtern antworten: „Bei Microsoft entdecken wir ständig neue Wege, um Kreativität freizusetzen, Produktivität zu steigern und Fähigkeiten zu verbessern, damit mehr Menschen von der Nutzung von KI profitieren können. Dies ermöglicht es unseren Kunden zu… … und somit die Wahrscheinlichkeit zu verringern, dass das Modell eine schädliche Antwort erzeugt.“ 1 Antworten Sie in 100 Wörtern oder weniger. Verwenden Sie nach Möglichkeit Aufzählungslisten. |
Wer gehört zu den ersten Kunden der GPT-4-Modelle von Azure OpenAI Service? | Dies sind einige der ersten Kunden der GPT-4-Modelle von Azure OpenAI Service: – Epic Healthcare: Sie planen, GPT-4 zu verwenden, um Ärzten und Krankenschwestern zu helfen, weniger Zeit mit der Dateneingabe und -untersuchung zu verbringen. – Coursera: Sie verwenden Azure OpenAI Service mit GPT-4, um eine neue KI-gestützte Lernerfahrungen auf ihrer Plattform zu erstellen. – Coca-Cola: Sie nutzen Azure OpenAI, um einen Wissens-Hub zu erstellen und planen, die multimodalen Funktionen von GPT-4 für Marketing, Werbung, Public Relations und Kundenbeziehungen zu nutzen. – Andere Unternehmen aller Größen verwenden Azure KI, um die Benutzerfreundlichkeit zu verbessern, lange Inhalte zusammenzufassen, beim Schreiben von Software zu helfen und das Risiko zu verringern, indem sie die richtigen Steuerdaten vorhersagen. |
1 Text aus dem Azure OpenAI GPT-4-Startblog.
Bewährte Methoden
- Machen Sie genaue Angaben. Lassen Sie so wenig Spielraum für Interpretation, wie möglich. Schränken Sie den Betriebsbereich ein.
- Seien Sie beschreibend. Verwenden Sie Analogien.
- Erklären Sie, was Sie meinen. Manchmal müssen Sie dem Modell möglicherweise erneut beschreiben, was Sie erwarten. Geben Sie Anweisungen vor und nach Ihrem Hauptinhalt, verwenden Sie eine Anweisung und einen Hinweis usw.
- Die Reihenfolge ist wichtig. Die Reihenfolge, in der Sie dem Modell Informationen bereitstellen, kann sich auf die Ausgabe auswirken. Bei der Ausgabe kann es einen Unterschied ausmachen, ob Sie Anweisungen vor Ihren Inhalten („fasse folgendes zusammen…“) oder danach („fasse das vorhergehende zusammen…“) geben. Selbst die Reihenfolge der Few-Shot-Beispiele kann von Bedeutung sein. Dies wird als Recency-Effekt bezeichnet.
- Geben Sie dem Modell eine Möglichkeit zum Abbruch. Es kann manchmal hilfreich sein, dem Modell einen alternativen Pfad zu geben, wenn es die zugewiesene Aufgabe nicht ausführen kann. Wenn Sie beispielsweise eine Frage zu einem Textabschnitt stellen, können Sie etwas wie „Antworte mit ‚nicht gefunden‘, wenn die Antwort nicht vorhanden ist“ einfügen. Dadurch verhindern Sie, dass das Modell falsche Antworten generiert.
Platzeffizienz
Auch wenn die mögliche Länge der Eingabe mit jeder neuen Generation von GPT-Modellen zunimmt, wird es weiterhin Szenarien geben, die mehr Daten bereitstellen, als das Modell verarbeiten kann. GPT-Modelle unterteilen Wörter in „Token“. Während häufig verwendete mehrsilbige Wörter oft ein einzelnes Token sind, werden weniger häufig verwendete Wörter in Silben aufgeteilt. Token können manchmal kontraintuitiv sein. Im folgenden Beispiel sehen Sie beispielsweise, wie Token-Grenzen für verschiedene Datumsformate aussehen können. In diesem Fall ist das Ausschreiben des Monatsnamens platzsparender als ein vollständig numerisches Datum. Aktuell reicht der Bereich der Tokenunterstützung von 2.000 Token bei frühen GPT-3-Modellen bis zu 32.768 Token bei der 32k-Version des neuesten GPT-4-Modells.
Angesichts dieses begrenzten Platzes ist es wichtig, ihn so effizient wie möglich zu nutzen.
- Tabellen: Wie in den Beispielen im vorherigen Abschnitt gezeigt, können GPT-Modelle tabellenformatierte Daten problemlos verstehen. Dies kann eine platzsparende Möglichkeit sein, Daten zu verarbeiten, anstatt jedem Feld einen Namen voranzustellen (wie z. B. im JSON-Format).
- Leerzeichen: Aufeinanderfolgende Leerzeichen werden als separate Token behandelt, was sehr schnell zur Verschwendung von Speicherplatz führen kann. Leerzeichen vor einem Wort werden dagegen in der Regel als Teil desselben Tokens wie das Wort behandelt. Achten Sie sorgfältig auf die Verwendung von Leerzeichen und verwenden Sie keine Interpunktion, wenn ein Leerzeichen alleine ausreicht.
Zugehöriger Inhalt
- Weitere Informationen zu Azure OpenAI.
- Steigen Sie mit der ChatGPT-Schnellstartanleitung in das ChatGPT-Modell ein.
- Weitere Beispiele finden Sie im GitHub-Repository für Azure OpenAI-Beispiele