Die vorliegende Übersetzung wurde maschinell erstellt. Im Falle eines Konflikts oder eines Widerspruchs zwischen dieser übersetzten Fassung und der englischen Fassung (einschließlich infolge von Verzögerungen bei der Übersetzung) ist die englische Fassung maßgeblich.
Führen Sie Amazon Bedrock API-Beispielanfragen mit dem AWS Command Line Interface
Dieser Abschnitt führt Sie durch das Ausprobieren einiger gängiger Vorgänge in Amazon Bedrock, mit denen AWS Command Line Interface Sie testen, ob Ihre Berechtigungen und Authentifizierung ordnungsgemäß eingerichtet sind. Bevor Sie die folgenden Beispiele ausführen, sollten Sie sich vergewissern, dass Sie die folgenden Voraussetzungen erfüllt haben:
Voraussetzungen
-
Sie haben einen AWS-Konto und einen Benutzer oder eine Rolle mit eingerichteter Authentifizierung und den erforderlichen Berechtigungen für Amazon Bedrock. Führen Sie andernfalls die Schritte unter Erste Schritte mit der API aus.
-
Sie haben die Authentifizierung für das AWS CLI installiert und konfiguriert. Um das zu installieren AWS CLI, folgen Sie den Schritten unter Installieren oder aktualisieren Sie auf die neueste Version von. AWS CLIÜberprüfen Sie, ob Sie Ihre Anmeldeinformationen für die Verwendung des CLI gemäß den Schritten unter Einholen von Anmeldeinformationen, um programmgesteuerten Zugriff zu gewähren konfiguriert haben.
Testen Sie, ob Ihre Berechtigungen für Amazon Bedrock ordnungsgemäß konfiguriert sind, indem Sie einen Benutzer oder eine Rolle verwenden, den bzw. die Sie mit den richtigen Berechtigungen konfiguriert haben.
Themen
Auflisten der Basismodelle, die Amazon Bedrock zu bieten hat
Im folgenden Beispiel wird der ListFoundationModelsVorgang mit dem ausgeführt AWS CLI. ListFoundationModelslistet die Foundation-Modelle (FMs) auf, die in Amazon Bedrock in Ihrer Region verfügbar sind. Führen Sie den folgenden Befehl in einem Terminal aus:
aws bedrock list-foundation-models
Wenn der Befehl erfolgreich ist, gibt die Antwort eine Liste der Basismodelle zurück, die in Amazon Bedrock verfügbar sind.
Senden Sie eine Textaufforderung an ein Modell und generieren Sie eine Textantwort mit InvokeModel
Im folgenden Beispiel wird der InvokeModelVorgang mit dem ausgeführt AWS CLI. InvokeModelermöglicht es Ihnen, eine Aufforderung zur Generierung einer Modellantwort einzureichen. Führen Sie den folgenden Befehl in einem Terminal aus:
aws bedrock-runtime invoke-model \ --model-id amazon.titan-text-express-v1 \ --body '{"inputText": "Describe the purpose of a \"hello world\" program in one line.", "textGenerationConfig" : {"maxTokenCount": 512, "temperature": 0.5, "topP": 0.9}}' \ --cli-binary-format raw-in-base64-out \ invoke-model-output-text.txt
Wenn der Befehl erfolgreich ist, wird die vom Modell generierte Antwort in die Datei invoke-model-output-text.txt geschrieben. Die Textantwort wird zusammen mit den zugehörigen Informationen im Feld outputText zurückgegeben.
Senden eines Text-Prompts an ein Modell und Generieren einer Textantwort mit Converse
Im folgenden Beispiel wird die Converse-Operation mit dem AWS CLI ausgeführt. Converseermöglicht es Ihnen, eine Aufforderung zur Generierung einer Modellantwort einzureichen. Wir empfehlen, die Operation Converse anstatt InvokeModel zu verwenden, sofern dies unterstützt wird, da sie die Inferenzanforderung für alle Amazon-Bedrock-Modelle vereinheitlicht und die Verwaltung von Multi-Turn-Konversationen vereinfacht. Führen Sie den folgenden Befehl in einem Terminal aus:
aws bedrock-runtime converse \ --model-id amazon.titan-text-express-v1 \ --messages '[{"role": "user", "content": [{"text": "Describe the purpose of a \"hello world\" program in one line."}]}]' \ --inference-config '{"maxTokens": 512, "temperature": 0.5, "topP": 0.9}'
Wenn der Befehl erfolgreich ist, wird die vom Modell generierte Antwort zusammen mit den zugehörigen Informationen im Feld text zurückgegeben.