Erstellen eines Prompts mithilfe des Prompt-Managements - Amazon Bedrock

Die vorliegende Übersetzung wurde maschinell erstellt. Im Falle eines Konflikts oder eines Widerspruchs zwischen dieser übersetzten Fassung und der englischen Fassung (einschließlich infolge von Verzögerungen bei der Übersetzung) ist die englische Fassung maßgeblich.

Erstellen eines Prompts mithilfe des Prompt-Managements

Beim Erstellen eines Prompts haben Sie folgende Möglichkeiten:

  • Schreiben Sie die Prompt-Nachricht, die als Eingabe für ein FM dient, um eine Ausgabe zu generieren.

  • Verwenden Sie doppelte geschweifte Klammern, um Variablen (wie in {{variable}}) in die Prompt-Nachricht aufzunehmen, die beim Aufrufen des Prompts ausgefüllt werden können.

  • Wählen Sie ein Modell aus, mit dem der Prompt aufgerufen werden soll, oder lassen Sie es unspezifiziert, falls Sie den Prompt mit einem Agenten verwenden möchten. Wenn Sie ein Modell auswählen, können Sie auch die zu verwendenden Inferenzkonfigurationen ändern. Weitere Informationen zu den Inferenzparametern für verschiedene Modelle finden Sie unter Inferenzanforderungsparameter und Antwortfelder für Basismodelle.

Alle Prompts unterstützen die folgenden Basisinferenzparameter:

  • maxTokens – Die maximale Anzahl von Token, die in der generierten Antwort zulässig sind

  • stopSequences – Eine Liste von Stoppsequenzen. Eine Stoppsequenz ist eine Folge von Zeichen, die bewirkt, dass das Modell die Generierung der Antwort stoppt.

  • temperature – Die Wahrscheinlichkeit, dass das Modell beim Generieren einer Antwortvariablen Optionen mit höherer Wahrscheinlichkeit auswählt

  • topP – Der Prozentsatz der wahrscheinlichsten Kandidaten, die das Modell für das nächste Token in Betracht zieht.

Wenn ein Modell zusätzliche Inferenzparameter unterstützt, können Sie diese als zusätzliche Felder für Ihren Prompt angeben. Sie stellen die zusätzlichen Felder in einem JSON-Objekt bereit. Das folgende Beispiel zeigt, wie Sie top_k einrichten, das in Anthropic-Claude-Modellen verfügbar ist, aber kein Basisinferenzparameter ist.

{ "top_k": 200 }

Informationen zu Modellinferenzparametern finden Sie unter Inferenzanforderungsparameter und Antwortfelder für Basismodelle.

Wenn Sie einen Basisinferenzparameter als zusätzliches Feld festlegen, wird der Wert, den Sie in der Konsole festgelegt haben, nicht außer Kraft gesetzt.

Wenn das Modell, das Sie für den Prompt auswählen, die Converse-API unterstützt (weitere Informationen finden Sie unter Führen einer Konversation mit den Converse-API-Operationen), können Sie bei der Erstellung des Prompts Folgendes einbeziehen:

  • Ein System-Prompt, um Anweisungen oder einen Kontext für das Modell bereitzustellen.

  • Frühere Prompts (Benutzernachrichten) und Modellantworten (Assistentennachrichten) als Konversationsverlauf, den das Modell bei der Generierung einer Antwort für die endgültige Benutzernachricht berücksichtigen kann.

  • (Falls vom Modell unterstützt) Tools, die das Modell bei der Generierung der Antwort verwenden soll.

  • (Falls vom Modell unterstützt) Verwenden Sie Prompt-Caching, um die Kosten zu senken, indem Sie umfangreiche oder häufig verwendete Prompts zwischenspeichern. Je nach Modell können Sie Systemanweisungen, Tools und Nachrichten (Benutzer- und Assistentennachrichten) zwischenspeichern. Beim Prompt-Caching wird ein Cache-Checkpoint für den Prompt erstellt, wenn Ihr gesamtes Prompt-Präfix der Mindestanzahl von Token entspricht, die das Modell benötigt. Wenn in einem Prompt auf eine geänderte Variable gestoßen wird, erstellt das Prompt-Caching einen neuen Cache-Checkpoint (wenn die Anzahl der Eingabe-Token die Mindestanzahl erreicht, die das Modell benötigt).

Wählen Sie die Registerkarte mit Ihrer bevorzugten Methode aus und führen Sie dann die Schritte aus, um zu erfahren, wie Sie einen Prompt mithilfe des Prompt-Managements erstellen:

Console
So erstellen Sie eine Telefonansage
  1. Melden Sie sich bei der AWS-Managementkonsole mit einer IAM-Identität an, die zur Verwendung der Amazon-Bedrock-Konsole berechtigt ist. Öffnen Sie dann die Amazon-Bedrock-Konsole unter https://console.aws.amazon.com/bedrock.

  2. Wählen Sie Prompt-Management aus. Wählen Sie dann Prompt erstellen aus.

  3. Geben Sie einen Namen und eine optionale Beschreibung für den Prompt ein.

  4. Wählen Sie im Bereich KMS-Schlüsselauswahl die Option Verschlüsselungseinstellungen anpassen (erweitert), um Ihren Prompt mit einem kundenseitig verwalteten Schlüssel zu verschlüsseln. Wenn Sie dieses Feld auslassen, wird Ihr Prompt mit einem Von AWS verwalteter Schlüssel verschlüsselt. Weitere Informationen finden Sie unter AWS KMS-Schlüssel.

  5. Wählen Sie Prompt erstellen aus. Ihr Prompt wird erstellt und Sie werden zum Prompt Builder für Ihren neu erstellten Prompt weitergeleitet. Hier können Sie Ihren Prompt konfigurieren.

  6. Sie können mit dem folgenden Verfahren fortfahren, um Ihren Prompt zu konfigurieren, oder später zum Prompt Builder zurückkehren.

So konfigurieren Sie Ihren Prompt
  1. Falls Sie sich noch nicht im Prompt Builder befinden, gehen Sie wie folgt vor:

    1. Melden Sie sich bei der AWS-Managementkonsole mit einer IAM-Identität an, die zur Verwendung der Amazon-Bedrock-Konsole berechtigt ist. Öffnen Sie dann die Amazon-Bedrock-Konsole unter https://console.aws.amazon.com/bedrock.

    2. Wählen Sie Prompt-Management aus. Wählen Sie dann im Abschnitt Prompts einen Prompt aus.

    3. Wählen Sie im Abschnitt Prompt-Entwurf die Option Im Prompt Builder bearbeiten aus.

  2. Verwenden Sie den Bereich Prompt, um den Prompt zu erstellen. Geben Sie den Prompt in das letzte Feld Benutzernachricht ein. Wenn das Modell die Converse-API oder die Anthropic-Claude-Nachrichten-API unterstützt, können Sie auch einen System-Prompt und frühere Benutzernachrichten und Assistentennachrichten als Kontext hinzufügen.

    Wenn Sie einen Prompt schreiben, können Sie Variablen in doppelten geschweiften Klammern angeben (wie in {{variable}}). Jede Variable, die Sie angeben, wird im Abschnitt Testvariablen angezeigt.

  3. (Optional) Sie können Ihren Prompt wie folgt ändern:

    • Führen Sie im Bereich Konfigurationen die folgenden Schritte aus:

      1. Wählen Sie eine Generative KI-Ressource zum Ausführen von Inferenzen aus.

        Anmerkung

        Wenn Sie einen Agenten auswählen, können Sie den Prompt nur in der Konsole testen. Weitere Informationen dazu, wie Sie einen Prompt mit einem Agenten in der API testen können, finden Sie unter Testen eines Prompts im Prompt-Management.

      2. Geben Sie unter Inferenzparameter die gewünschten Inferenzparameter an.

      3. Wenn das Modell Reasoning unterstützt, aktivieren Sie Reasoning, damit das Reasoning des Modells in die Antwort einbezogen wird. Im Feld Reasoning-Token können Sie die Anzahl der Reasoning-Token konfigurieren, die das Modell verwenden kann.

      4. Wählen Sie unter Zusätzliche Felder für Modellanfragen die Option Konfigurieren aus, um zusätzliche Inferenzparameter anzugeben, die über die unter Inferenzparameter angegebenen Parameter hinausgehen.

      5. Wenn das von Ihnen gewählte Modell Tools unterstützt, wählen Sie Tools konfigurieren aus, um Tools mit dem Prompt zu verwenden.

      6. Wenn das von Ihnen gewählte Modell Prompt-Caching unterstützt, wählen Sie eine der folgenden Optionen aus (die Verfügbarkeit variiert je nach Modell):

        • Keine – Es wird kein Prompt-Caching durchgeführt.

        • Tools – Nur Tools im Prompt werden zwischengespeichert.

        • Tools, Systemanweisungen – Tools und Systemanweisungen im Prompt werden zwischengespeichert.

        • Tools, Systemanweisungen und Nachrichten – Tools, Systemanweisungen und Nachrichten (Benutzer- und Assistentennachrichten) im Prompt werden zwischengespeichert.

    • Wenn Sie verschiedene Varianten Ihres Prompts vergleichen möchten, wählen Sie Varianten vergleichen aus. Sie haben folgende Möglichkeiten auf der Seite zum Vergleichen:

      • Wählen Sie das Pluszeichen, um eine Variante hinzuzufügen. Sie können bis zu drei Varianten angeben.

      • Nachdem Sie die Details einer Variante angegeben haben, können Sie beliebige Testvariablen angeben und Ausführen auswählen, um die Ausgabe der Variante zu testen.

      • Wenn Sie eine Variante löschen möchten, klicken Sie auf die drei Punkte und wählen Sie Aus Vergleich entfernen aus.

      • Wenn Sie den Arbeitsentwurf ersetzen und den Vergleichsmodus verlassen möchten, wählen Sie Als Entwurf speichern aus. Alle anderen Varianten werden gelöscht.

      • Zum Verlassen des Vergleichsmodus wählen Sie Vergleichsmodus beenden aus.

  4. Wenn Sie mit der Konfigurierung des Prompts fertig sind, haben Sie die folgenden Möglichkeiten:

API

Wenn Sie einen Prompt erstellen möchten, senden Sie eine CreatePrompt-Anfrage mit einem Build-Time-Endpunkt von Agenten für Amazon Bedrock.

Die folgenden Felder sind erforderlich:

Feld Kurze Beschreibung
Name Ein Name für den Prompt
Varianten Eine Liste verschiedener Konfigurationen für den Prompt (siehe unten)
defaultVariant Der Name der Standardvariante

Jede Variante in der Liste variants ist ein PromptVariant-Objekt mit der folgenden allgemeinen Struktur:

{ "name": "string", # modelId or genAiResource (see below) "templateType": "TEXT", "templateConfiguration": # see below, "inferenceConfiguration": { "text": { "maxTokens": int, "stopSequences": ["string", ...], "temperature": float, "topP": float } }, "additionalModelRequestFields": { "key": "value", ... }, "metadata": [ { "key": "string", "value": "string" }, ... ] }

Füllen Sie die Felder wie folgt aus:

  • name – Geben Sie einen Namen für die Variante ein.

  • Fügen Sie je nach verwendeter Modellaufrufressource eines der folgenden Felder ein:

    • modelId – Wenn Sie ein Basismodell oder ein Inferenzprofil angeben möchten, das mit dem Prompt verwendet werden soll, geben Sie dessen ARN oder ID ein.

    • genAiResource – Zum Angeben eines Agenten geben Sie dessen ID oder ARN ein. Der Wert im Feld genAiResource ist ein JSON-Objekt im folgenden Format:

      { "genAiResource": { "agent": { "agentIdentifier": "string" } }
      Anmerkung

      Wenn Sie das Feld genAiResource einbeziehen, können Sie den Prompt nur in der Konsole testen. Wenn Sie einen Prompt mit einem Agenten in der API testen möchten, müssen Sie den Text des Prompts direkt in das Feld inputText der InvokeAgent-Anfrage eingeben.

  • templateType – Geben Sie TEXT oder CHAT ein. CHAT ist nur mit Modellen kompatibel, die die Converse-API unterstützen. Wenn Sie Prompt-Caching verwenden möchten, müssen Sie den CHAT-Vorlagentyp verwenden.

  • templateConfiguration – Der Wert hängt vom angegebenen Vorlagentyp ab:

  • inferenceConfiguration – Das Feld text ist einer PromptModelInferenceConfiguration zugeordnet. Dieses Feld enthält Inferenzparameter, die allen Modellen gemeinsam sind. Weitere Informationen zu Inferenzparametern finden Sie unter So beeinflussen Sie die Antwortgenerierung mit Inferenzparametern.

  • additionalModelRequestFields – Verwenden Sie dieses Feld, um Inferenzparameter anzugeben, die für das Modell spezifisch sind, mit dem Sie die Inferenz ausführen. Weitere Informationen zu modellspezifischen Inferenzparametern finden Sie unter Inferenzanforderungsparameter und Antwortfelder für Basismodelle.

  • metadaten – Diese Metadaten sollen der Prompt-Variante zugeordnet werden. Sie können Schlüssel-Wert-Paare an das Array anhängen, um die Prompt-Variante mit Metadaten zu markieren.

Die folgenden Felder sind optional:

Feld Anwendungsfall
description Geben Sie eine Beschreibung für den Prompt an.
clientToken Zur Sicherstellung, dass die API-Anfrage nur einmal abgeschlossen wird. Weitere Informationen finden Sie unter Sicherstellen von Idempotenz.
tags Hiermit ordnen Sie dem Flow Tags zu. Weitere Informationen finden Sie unter Markieren von Amazon-Bedrock-Ressourcen.

Die Antwort erstellt eine DRAFT-Version und gibt eine ID sowie einen ARN zurück, die Sie als Prompt-ID für andere API-Anfragen im Zusammenhang mit Prompts verwenden können.