Le traduzioni sono generate tramite traduzione automatica. In caso di conflitto tra il contenuto di una traduzione e la versione originale in Inglese, quest'ultima prevarrà.
Eseguire esempi di richieste API Amazon Bedrock con AWS Command Line Interface
Questa sezione ti guida nell’esecuzione di alcune operazioni comuni in Amazon Bedrock utilizzando AWS Command Line Interface per verificare che le autorizzazioni e l’autenticazione siano configurate correttamente. Prima di eseguire i seguenti esempi, devi verificare di aver soddisfatto i seguenti prerequisiti:
Prerequisiti
-
Hai un Account AWS e un utente o un ruolo con autenticazione configurata e le autorizzazioni necessarie per Amazon Bedrock. In caso contrario, segui le fasi in Iniziare a utilizzare l’API.
-
Hai installato e configurato l’autenticazione per AWS CLI. Per installare la AWS CLI, segui la procedura descritta alla pagina Installare o aggiornare la versione più recente della AWS CLI. Verifica di aver configurato le credenziali per utilizzare la CLI seguendo la procedura indicata alla pagina Ottenere le credenziali per concedere l’accesso programmatico.
Verifica che le tue autorizzazioni siano configurate correttamente per Amazon Bedrock, utilizzando un utente o un ruolo che hai configurato con le autorizzazioni appropriate.
Argomenti
Elencare i modelli di fondazione offerti da Amazon Bedrock
L’esempio seguente esegue l’operazione ListFoundationModels utilizzando la AWS CLI. ListFoundationModels elenca i modelli di fondazione (FM) disponibili in Amazon Bedrock nella tua Regione. In un terminale, esegui il comando riportato qui sotto:
aws bedrock list-foundation-models
Se il comando ha esito positivo, la risposta restituisce un elenco dei modelli di fondazione disponibili in Amazon Bedrock.
Inviare un prompt di testo a un modello e generare una risposta testuale con InvokeModel
L’esempio seguente esegue l’operazione InvokeModel utilizzando la AWS CLI. InvokeModel consente di inviare un prompt per generare una risposta del modello. In un terminale, esegui il comando riportato qui sotto:
aws bedrock-runtime invoke-model \ --model-id amazon.titan-text-express-v1 \ --body '{"inputText": "Describe the purpose of a \"hello world\" program in one line.", "textGenerationConfig" : {"maxTokenCount": 512, "temperature": 0.5, "topP": 0.9}}' \ --cli-binary-format raw-in-base64-out \ invoke-model-output-text.txt
Se il comando ha esito positivo, la risposta generata dal modello viene scritta nel file invoke-model-output-text.txt. La risposta testuale viene restituita nel campo outputText, insieme alle informazioni di accompagnamento.
Inviare un prompt di testo a un modello e generare una risposta testuale con Converse
L’esempio seguente esegue l’operazione Converse utilizzando la AWS CLI. Converse consente di inviare un prompt per generare una risposta del modello. Ti consigliamo di utilizzare l’operazione Converse invece di InvokeModel quando supportata, perché unifica la richiesta di inferenza tra i modelli di Amazon Bedrock e semplifica la gestione delle conversazioni multi-turno. In un terminale, esegui il comando riportato qui sotto:
aws bedrock-runtime converse \ --model-id amazon.titan-text-express-v1 \ --messages '[{"role": "user", "content": [{"text": "Describe the purpose of a \"hello world\" program in one line."}]}]' \ --inference-config '{"maxTokens": 512, "temperature": 0.5, "topP": 0.9}'
Se il comando ha esito positivo, la risposta generata dal modello viene restituita nel campo text, insieme alle informazioni di accompagnamento.