Inviare ed elaborare un documento con Llama in Amazon Bedrock - Esempi di codice per SDK AWS

Sono disponibili altri esempi per SDK AWS nel repository GitHub della documentazione degli esempi per SDK AWS.

Inviare ed elaborare un documento con Llama in Amazon Bedrock

L’esempio di codice seguente mostra come inviare ed elaborare un documento con Meta Llama in Amazon Bedrock.

Python
SDK per Python (Boto3)
Nota

Ulteriori informazioni su GitHub. Trova l’esempio completo e scopri di più sulla configurazione e l’esecuzione nel Repository di esempi di codice AWS.

Invia ed elabora un documento con Llama in Amazon Bedrock.

# Send and process a document with Llama on Amazon Bedrock. import boto3 from botocore.exceptions import ClientError # Create a Bedrock Runtime client in the AWS Region you want to use. client = boto3.client("bedrock-runtime", region_name="us-east-1") # Set the model ID, e.g. Llama 3.1 8B Instruct. model_id = "us.meta.llama3-1-8b-instruct-v1:0" # Load the document with open("example-data/amazon-nova-service-cards.pdf", "rb") as file: document_bytes = file.read() # Start a conversation with a user message and the document conversation = [ { "role": "user", "content": [ {"text": "Briefly compare the models described in this document"}, { "document": { # Available formats: html, md, pdf, doc/docx, xls/xlsx, csv, and txt "format": "pdf", "name": "Amazon Nova Service Cards", "source": {"bytes": document_bytes}, } }, ], } ] try: # Send the message to the model, using a basic inference configuration. response = client.converse( modelId=model_id, messages=conversation, inferenceConfig={"maxTokens": 500, "temperature": 0.3}, ) # Extract and print the response text. response_text = response["output"]["message"]["content"][0]["text"] print(response_text) except (ClientError, Exception) as e: print(f"ERROR: Can't invoke '{model_id}'. Reason: {e}") exit(1)
  • Per informazioni dettagliate sull’API, consulta Converse nella documentazione di riferimento dell’API AWS SDK per Python (Boto3).