Die vorliegende Übersetzung wurde maschinell erstellt. Im Falle eines Konflikts oder eines Widerspruchs zwischen dieser übersetzten Fassung und der englischen Fassung (einschließlich infolge von Verzögerungen bei der Übersetzung) ist die englische Fassung maßgeblich.
Was ist Prompt-Engineering?
Prompt-Engineering bezieht sich auf die Praxis, Prompts zu erstellen und zu optimieren, indem geeignete Wörter, Ausdrücke, Sätze, Satzzeichen und Trennzeichen ausgewählt werden, um LLMs für eine Vielzahl von Anwendungen effektiv einzusetzen. Mit anderen Worten, Prompt-Engineering ist die Kunst, mit einem LLM zu kommunizieren. Qualitativ hochwertige Prompts bereiten das LLM darauf vor, die gewünschten oder bessere Antworten zu generieren. Die detaillierten Anleitungen in diesem Dokument gelten für alle LLMs innerhalb von Amazon Bedrock.
Welcher Prompt-Engineering-Ansatz für Ihren Anwendungsfall am besten geeignet ist, hängt sowohl von der Aufgabe als auch von den Daten ab. Zu den gängigen Aufgaben, die von LLMs in Amazon Bedrock unterstützt werden, gehören:
-
Klassifizierung: Die Aufforderung enthält eine Frage mit mehreren Antwortmöglichkeiten und das Modell muss mit der richtigen Antwort antworten. Ein Beispiel für einen Anwendungsfall der Klassifizierung ist die Stimmungsanalyse: Die Eingabe ist eine Textpassage und das Modell muss die Stimmung des Textes klassifizieren, z. B. ob er positiv oder negativ, harmlos oder toxisch ist.
-
Frage-Antwort, ohne Kontext: Das Modell muss die Frage mit seinem internen Wissen ohne Kontext oder Dokument beantworten.
-
Frage-Antwort, mit Kontext: Der Benutzer stellt einen Eingabetext mit einer Frage zur Verfügung und das Modell muss die Frage auf der Grundlage der im Eingabetext bereitgestellten Informationen beantworten.
-
Zusammenfassung: Der Prompt ist eine Textpassage und das Modell muss mit einer kürzeren Passage antworten, die die wichtigsten Punkte der Eingabe erfasst.
-
Textgenerierung mit offenem Ende: Auf einen Prompt muss das Modell mit einer Passage des Ursprungstexts antworten, die der Beschreibung entspricht. Dazu gehört auch die Generierung von kreativem Text wie Geschichten, Gedichte oder Drehbücher.
-
Codegenerierung: Das Modell muss Code auf der Grundlage von Benutzerspezifikationen generieren. Ein Prompt könnte beispielsweise die Generierung von Text-to-SQL- oder Python-Code anfordern.
-
Mathematik: Die Eingabe beschreibt ein Problem, das in gewissem Maße mathematische Überlegungen erfordert, die numerischer, logischer, geometrischer oder anderer Natur sein können.
-
Argumentation oder logisches Denken: Das Modell muss eine Reihe logischer Schlussfolgerungen ziehen.
-
Entitätsextraktion: Durch die Extraktion von Entitäten können Entitäten auf der Grundlage einer bereitgestellten Eingabefrage extrahiert werden. Sie können auf der Basis Ihres Prompts bestimmte Entitäten aus Text oder Eingabe extrahieren.
-
Argumentation in Gedankenketten: Begründen Sie Schritt für Schritt, wie aus Ihrem Prompt eine Antwort abgeleitet wird.