Generieren von Antworten in der Konsole mithilfe von Playgrounds
Die Amazon-Bedrock-Playgrounds sind ein Tool in der AWS-Managementkonsole, das eine visuelle Oberfläche bietet, um mit der Ausführung von Inferenzen für verschiedene Modellen und mit unterschiedlichen Konfigurationen zu experimentieren. Sie können die Playgrounds verwenden, um verschiedene Modelle und Werte zu testen, bevor Sie sie in Ihre Anwendung integrieren.
Das Ausführen eines Prompts in einem Playground entspricht dem Senden einer InvokeModel-, InvokeModelWithResponseStream-, Converse- oder ConverseStream-Anfrage in der API.
Amazon Bedrock bietet die folgenden Playgrounds, mit denen Sie experimentieren können:
-
Chat/Text – Senden Sie Text-Prompts und generieren Sie Antworten oder interagieren Sie mit Sprache. Sie können einen der folgenden Modi auswählen:
-
Chat – Senden Sie einen Text-Prompt oder interagieren Sie mit Sprache. Bei Text-Prompts können Sie auch Bilder oder Dokumente hinzufügen, um den Prompt zu ergänzen. Nachfolgende Prompts, die Sie einreichen, enthalten Ihre vorherigen Prompts als Kontext, sodass die Reihenfolge der Prompts und Antworten einer Konversation ähnelt.
-
Einzelner Prompt – Senden Sie einen einzelnen Text-Prompt und generieren Sie eine entsprechende Antwort.
Anmerkung
Speech-to-Speech-Modelle wie Amazon Nova Sonic sind nur im Chat-Modus verfügbar. Der Vergleichsmodus wird für Speech-to-Speech-Modelle nicht unterstützt.
-
-
Bild – Senden Sie einen Text-Prompt, um ein Bild zu generieren. Sie können auch einen Bild-Prompt übermitteln und angeben, ob Sie das Bild bearbeiten oder Varianten davon generieren möchten.
Im folgenden Verfahren wird beschrieben, wie Sie einen Prompt im Playground übermitteln, welche Optionen Sie anpassen können und welche Aktionen Sie ausführen können, nachdem das Modell eine Antwort generiert hat.
Verwenden eines Playgrounds
-
Fordern Sie den Zugriff auf die gewünschten Modelle an, falls noch nicht geschehen. Weitere Informationen finden Sie unter Zugriff auf Amazon-Bedrock-Basismodelle.
-
Melden Sie sich bei der AWS-Managementkonsole mit einer IAM-Identität an, die zur Verwendung der Amazon-Bedrock-Konsole berechtigt ist. Öffnen Sie dann die Amazon-Bedrock-Konsole unter https://console.aws.amazon.com/bedrock
. -
Wählen Sie im Navigationsbereich unter Playgrounds die Option Chat/Text oder Bild aus.
-
Wenn Sie sich im Chat/Text-Playground befinden, wählen Sie einen Modus aus.
-
Wählen Sie Modell auswählen sowie einen Anbieter, ein Modell und den zu verwendenden Durchsatz aus. Weitere Informationen zum Erhöhen des Durchsatzes finden Sie unter Erhöhen des Durchsatzes mit regionenübergreifender Inferenz und Bereitgestellter Durchsatz.
-
Reichen Sie die folgenden Informationen ein, um eine Antwort zu generieren:
-
Prompt – Ein oder mehrere Textsätze, mit denen ein Szenario, eine Frage oder eine Aufgabe für ein Modell eingerichtet wird. Weitere Informationen zum Erstellen von Eingabeaufforderungen finden Sie unter Prompt-Engineering-Konzepte.
Wenn Sie den Chat-Modus des Chat-/Text-Playgrounds verwenden, können Sie bei einigen Modellen (siehe Unterstützte Modelle und Modellfeatures) eine Datei wie folgt einbinden:
-
Wählen Sie das Anhangssymbol und eine Datei zum Hochladen aus.
-
Wählen Sie das Anhangssymbol und ein Amazon-S3-Objekt zum Hochladen aus.
-
Ziehen Sie eine Datei auf den Prompt.
Fügen Sie Dateien hinzu, um Ihrem Prompt zu ergänzen. Sie können im Prompt-Text auf die Datei verweisen. Sie könnten beispielsweise
Summarize this document for meoderTell me what's in this imageschreiben. Sie können die folgenden Dateitypen hinzufügen:-
Dokumente – Fügen Sie Dokumente hinzu, um den Prompt zu ergänzen. Eine Liste der unterstützten Dateitypen finden Sie im Feld
formatin DocumentBlock.Warnung
Dokumentnamen sind anfällig für Promptinjektionen, da das Modell sie versehentlich als Anweisungen interpretieren könnte. Daher wird empfohlen, einen neutralen Namen anzugeben.
-
Bilder – Fügen Sie zur Ergänzung des Prompts Bilder hinzu, wenn das Modell multimodale Bild- und Texteingaben unterstützt. Eine Liste der unterstützten Dateitypen finden Sie im Feld
formatin ImageBlock. -
Videos – Fügen Sie zur Ergänzung des Prompts Videos hinzu, wenn das Modell multimodale Bild- und Texteingaben unterstützt. Eine Liste der unterstützten Dateitypen finden Sie im Feld
formatin VideoBlock.
-
-
Konfigurationen – Einstellungen, die Sie anpassen, um die Modellantwort zu ändern. Die Konfigurationen umfassen folgende:
-
Inferenzparameter – Werte, die beeinflussen oder einschränken, wie das Modell die Antwort generiert. Weitere Informationen finden Sie unter So beeinflussen Sie die Antwortgenerierung mit Inferenzparametern. Informationen zu den Inferenzparametern für bestimmte Modelle finden Sie unter Inferenzanforderungsparameter und Antwortfelder für Basismodelle.
-
System-Prompts – Hierbei handelt es sich um Prompts, die dem Modell Anweisungen oder Kontext zu der Aufgabe, die es ausführen soll, oder zu der Persona, die es während der Konversation annehmen soll, bereitstellt. Diese sind nur im Chat-Modus des Chat-/Text-Playgrounds verfügbar. Weitere Informationen und eine Liste der Modelle, die System-Prompts unterstützen, finden Sie unter Führen einer Konversation mit den Converse-API-Operationen.
-
Integritätsschutz – Filtert schädliche oder unerwünschte Inhalte aus Prompts und Modellantworten heraus. Weitere Informationen finden Sie unter So erkennen und filtern Sie schädliche Inhalte mithilfe vom Integritätsschutz für Amazon Bedrock.
-
-
-
(Optional) Wenn ein Modell Streaming unterstützt, werden die Antworten im Chat-/Text-Playground standardmäßig gestreamt. Sie können das Streaming ausschalten, indem Sie das Optionssymbol (
) auswählen und die Option Streaming-Präferenz ändern. -
(Optional) Im Chat-Modus des Chat-/Text-Playgrounds können Sie die Antworten verschiedener Modelle vergleichen, indem Sie wie folgt vorgehen:
-
Schalten Sie den Vergleichsmodus ein.
-
Wählen Sie Modell auswählen sowie einen Anbieter, ein Modell und den zu verwendenden Durchsatz aus.
-
Wählen Sie das Konfigurationssymbol (
), um die zu verwendenden Konfigurationen zu ändern. -
Wenn Sie weitere Modelle zum Vergleichen hinzufügen möchten, klicken Sie auf das Plus-Symbol auf der rechten Seite, wählen ein Modell aus und ändern die Konfigurationen nach Bedarf.
-
-
(Optional) Wenn ein Modell das Prompt-Caching unterstützt, können Sie das Fenster Konfigurationen öffnen und Prompt-Caching aktivieren, um das Zwischenspeichern Ihrer Eingaben und Modellantworten zu aktivieren und so Kosten und Latenz zu reduzieren. Weitere Informationen finden Sie unter Prompt-Caching für schnellere Modellinferenz.
-
Wählen Sie Ausführen aus, um den Prompt auszuführen. Amazon Bedrock speichert keine Texte, Bilder oder Dokumente, die Sie bereitstellen. Die Daten werden nur verwendet, um die Antwort zu generieren.
Anmerkung
Wenn die Antwort gegen die Richtlinie zur Inhaltsmoderation verstößt, zeigt Amazon Bedrock sie nicht an. Wenn Sie Streaming aktiviert haben, löscht Amazon Bedrock die gesamte Antwort, wenn Inhalte generiert werden, die gegen die Richtlinie verstoßen. Wenn Sie weitere Informationen wünschen, navigieren Sie zur Amazon-Bedrock-Konsole, wählen Sie Anbieter aus und lesen Sie den Text im Abschnitt Inhaltsbeschränkungen.
-
Das Modell gibt die Antwort zurück. Wenn Sie den Chat-Modus des Chat-/Text-Playgrounds verwenden, können Sie einen Prompt übermitteln, um auf die Antwort zu reagieren und eine weitere Antwort zu generieren.
-
Nach dem Generieren der Antwort haben Sie folgende Möglichkeiten:
-
Wenn Sie die Antwort als JSON-Datei exportieren möchten, wählen Sie das Optionssymbol (
) und dann Als JSON exportieren aus. -
Wenn Sie die von Ihnen gestellte API-Anfrage anzeigen möchten, wählen Sie das Optionssymbol (
) und dann API-Anfrage anzeigen aus. -
Im Chat-Modus des Chat-/Text-Playgrounds können Sie Metriken im Abschnitt Modellmetriken einsehen. Die folgenden Modellmetriken sind verfügbar:
-
Latenz – Dies ist die Zeit, die zwischen dem Eingang der Anfrage bei Amazon Bedrock und der Rückgabe der Antwort (für Nicht-Streaming-Antworten) oder dem Abschluss des Antwort-Streams (für Streaming-Antworten) vergeht.
-
Anzahl der Eingabe-Token: Die Anzahl der Token, die während der Inferenz als Eingabe in das Modell eingespeist werden.
-
Anzahl der Ausgabe-Token: Die Anzahl der Token, die als Antwort auf eine Eingabeaufforderung generiert wurden. Längere, gesprächsorientiertere Antworten erfordern mehr Token.
-
Kosten: Die Kosten für die Verarbeitung der Eingabe und die Generierung von Ausgabe-Token.
Wenn Sie Metrik-Kriterien festlegen möchten, denen die Antwort entsprechen soll, wählen Sie Metrik-Kriterien definieren aus und definieren Bedingungen, die das Modell erfüllen soll. Nachdem Sie die Kriterien angewendet haben, wird im Abschnitt Modellmetriken angezeigt, wie viele und welche Kriterien die Antwort erfüllt hat.
Wenn die Kriterien nicht erfüllt sind, können Sie ein anderes Modell auswählen, den Prompt neu formulieren oder Konfigurationen ändern und den Prompt erneut ausführen.
-
-