Parameter und Inferenz von Pixtral Large (25.02) - Amazon Bedrock

Die vorliegende Übersetzung wurde maschinell erstellt. Im Falle eines Konflikts oder eines Widerspruchs zwischen dieser übersetzten Fassung und der englischen Fassung (einschließlich infolge von Verzögerungen bei der Übersetzung) ist die englische Fassung maßgeblich.

Parameter und Inferenz von Pixtral Large (25.02)

Pixtral Large 25.02 ist ein multimodales Modell mit 124 B Parametern, das state-of-the-art Bildverständnis mit leistungsstarken Textverarbeitungsfunktionen kombiniert. AWS ist der erste Cloud-Anbieter, der Pixtral Large (25.02) als vollständig verwaltetes, serverloses Modell anbietet. Dieses Modell bietet erstklassige Leistung bei der Durchführung von Dokumentenanalysen, der Interpretation von Diagrammen und dem Verständnis natürlicher Bilder und behält gleichzeitig die erweiterten Textfunktionen von Mistral Large 2 bei.

Mit einem 128K-Kontextfenster erreicht Pixtral Large 25.02 best-in-class Leistung bei wichtigen Benchmarks wie DocVQA und. MathVista VQAv2 Das Modell bietet umfassende mehrsprachige Unterstützung in vielen Sprachen und wurde in über 80 Programmiersprachen trainiert. Zu den wichtigsten Funktionen gehören fortgeschrittenes mathematisches Denken, systemeigener Funktionsaufruf, JSON-Ausgabe und robuste Kontexttreue für RAG-Anwendungen.

Mit der API zur Chat-Vervollständigung von Mistral AI können Sie Konversationsanwendungen erstellen. Sie können auch die Converse-API von Amazon Bedrock mit diesem Modell verwenden. Sie können Tools nutzen, um Funktionsaufrufe zu tätigen.

Tipp

Sie können die Mistral AI Chat-Abschluss-API mit den grundlegenden Inferenzoperationen (oder) verwenden. InvokeModelInvokeModelWithResponseStream Wir empfehlen jedoch, die Converse-API zu verwenden, um Nachrichten in Ihrer Anwendung zu implementieren. Die Converse-API bietet einen einheitlichen Satz von Parametern, die für alle Modelle funktionieren, die Nachrichten unterstützen. Weitere Informationen finden Sie unter Führen einer Konversation mit den Converse-API-Operationen.

Das Modell Mistral AI Pixtral Large ist unter der Mistral Research License erhältlich. Weitere Informationen zur Verwendung von Modellen von Mistral AI finden Sie in der Dokumentation für Mistral AI.

Unterstützte Modelle

Sie können die folgenden Modelle von Mistral AI mit den Codebeispielen auf dieser Seite verwenden.

  • Pixtral Large (25.02)

Sie benötigen die Modell-ID für das Modell, das Sie verwenden möchten. Informationen zum Abrufen der Modell-ID finden Sie unter Unterstützte Basismodelle in Amazon Bedrock.

Beispiele für Anforderung und Antwort

Request

Beispiel für den Modellaufruf von Pixtral Large (25.02)

import boto3 import json import base64 input_image = "image.png" with open(input_image, "rb") as f: image = f.read() image_bytes = base64.b64encode(image).decode("utf-8") bedrock = boto3.client( service_name='bedrock-runtime', region_name="us-east-1") request_body = { "messages" : [ { "role" : "user", "content" : [ { "text": "Describe this picture:", "type": "text" }, { "type" : "image_url", "image_url" : { "url" : f"data:image/png;base64,{image_bytes}" } } ] } ], "max_tokens" : 10 } response = bedrock.invoke_model( modelId='us.mistral.pixtral-large-2502-v1:0', body=json.dumps(request_body) ) print(json.dumps(json.loads(response.get('body').read()), indent=4))
Converse

Converse-Beispiel von Pixtral Large (25.02)

import boto3 import json import base64 input_image = "image.png" with open(input_image, "rb") as f: image_bytes = f.read() bedrock = boto3.client( service_name='bedrock-runtime', region_name="us-east-1") messages =[ { "role" : "user", "content" : [ { "text": "Describe this picture:" }, { "image": { "format": "png", "source": { "bytes": image_bytes } } } ] } ] response = bedrock.converse( modelId='mistral.pixtral-large-2502-v1:0', messages=messages ) print(json.dumps(response.get('output'), indent=4))
invoke_model_with_response_stream

Beispiel für invoke_model_with_response_stream von Pixtral Large (25.02)

import boto3 import json import base64 input_image = "image.png" with open(input_image, "rb") as f: image = f.read() image_bytes = base64.b64encode(image).decode("utf-8") bedrock = boto3.client( service_name='bedrock-runtime', region_name="us-east-1") request_body = { "messages" : [ { "role" : "user", "content" : [ { "text": "Describe this picture:", "type": "text" }, { "type" : "image_url", "image_url" : { "url" : f"data:image/png;base64,{image_bytes}" } } ] } ], "max_tokens" : 10 } response = bedrock.invoke_model_with_response_stream( modelId='us.mistral.pixtral-large-2502-v1:0', body=json.dumps(request_body) ) stream = response.get('body') if stream: for event in stream: chunk=event.get('chunk') if chunk: chunk_obj=json.loads(chunk.get('bytes').decode()) print(chunk_obj)
converse_stream

Converse_stream-Beispiel von Pixtral Large (25.02)

import boto3 import json import base64 input_image = "image.png" with open(input_image, "rb") as f: image_bytes = f.read() bedrock = boto3.client( service_name='bedrock-runtime', region_name="us-east-1") messages =[ { "role" : "user", "content" : [ { "text": "Describe this picture:" }, { "image": { "format": "png", "source": { "bytes": image_bytes } } } ] } ] response = bedrock.converse_stream( modelId='mistral.pixtral-large-2502-v1:0', messages=messages ) stream = response.get('stream') if stream: for event in stream: if 'messageStart' in event: print(f"\nRole: {event['messageStart']['role']}") if 'contentBlockDelta' in event: print(event['contentBlockDelta']['delta']['text'], end="") if 'messageStop' in event: print(f"\nStop reason: {event['messageStop']['stopReason']}") if 'metadata' in event: metadata = event['metadata'] if 'usage' in metadata: print("\nToken usage ... ") print(f"Input tokens: {metadata['usage']['inputTokens']}") print( f":Output tokens: {metadata['usage']['outputTokens']}") print(f":Total tokens: {metadata['usage']['totalTokens']}") if 'metrics' in event['metadata']: print( f"Latency: {metadata['metrics']['latencyMs']} milliseconds")
JSON Output

JSON-Ausgabebeispiel von Pixtral Large (25.02)

import boto3 import json bedrock = session.client('bedrock-runtime', 'us-west-2') mistral_params = { "body": json.dumps({ "messages": [{"role": "user", "content": "What is the best French meal? Return the name and the ingredients in short JSON object."}] }), "modelId":"us.mistral.pixtral-large-2502-v1:0", } response = bedrock.invoke_model(**mistral_params) body = response.get('body').read().decode('utf-8') print(json.loads(body))
Tooling

Tools-Beispiel von Pixtral Large (25.02)

data = { 'transaction_id': ['T1001', 'T1002', 'T1003', 'T1004', 'T1005'], 'customer_id': ['C001', 'C002', 'C003', 'C002', 'C001'], 'payment_amount': [125.50, 89.99, 120.00, 54.30, 210.20], 'payment_date': ['2021-10-05', '2021-10-06', '2021-10-07', '2021-10-05', '2021-10-08'], 'payment_status': ['Paid', 'Unpaid', 'Paid', 'Paid', 'Pending'] } # Create DataFrame df = pd.DataFrame(data) def retrieve_payment_status(df: data, transaction_id: str) -> str: if transaction_id in df.transaction_id.values: return json.dumps({'status': df[df.transaction_id == transaction_id].payment_status.item()}) return json.dumps({'error': 'transaction id not found.'}) def retrieve_payment_date(df: data, transaction_id: str) -> str: if transaction_id in df.transaction_id.values: return json.dumps({'date': df[df.transaction_id == transaction_id].payment_date.item()}) return json.dumps({'error': 'transaction id not found.'}) tools = [ { "type": "function", "function": { "name": "retrieve_payment_status", "description": "Get payment status of a transaction", "parameters": { "type": "object", "properties": { "transaction_id": { "type": "string", "description": "The transaction id.", } }, "required": ["transaction_id"], }, }, }, { "type": "function", "function": { "name": "retrieve_payment_date", "description": "Get payment date of a transaction", "parameters": { "type": "object", "properties": { "transaction_id": { "type": "string", "description": "The transaction id.", } }, "required": ["transaction_id"], }, }, } ] names_to_functions = { 'retrieve_payment_status': functools.partial(retrieve_payment_status, df=df), 'retrieve_payment_date': functools.partial(retrieve_payment_date, df=df) } test_tool_input = "What's the status of my transaction T1001?" message = [{"role": "user", "content": test_tool_input}] def invoke_bedrock_mistral_tool(): mistral_params = { "body": json.dumps({ "messages": message, "tools": tools }), "modelId":"us.mistral.pixtral-large-2502-v1:0", } response = bedrock.invoke_model(**mistral_params) body = response.get('body').read().decode('utf-8') body = json.loads(body) choices = body.get("choices") message.append(choices[0].get("message")) tool_call = choices[0].get("message").get("tool_calls")[0] function_name = tool_call.get("function").get("name") function_params = json.loads(tool_call.get("function").get("arguments")) print("\nfunction_name: ", function_name, "\nfunction_params: ", function_params) function_result = names_to_functions[function_name](**function_params) message.append({"role": "tool", "content": function_result, "tool_call_id":tool_call.get("id")}) new_mistral_params = { "body": json.dumps({ "messages": message, "tools": tools }), "modelId":"us.mistral.pixtral-large-2502-v1:0", } response = bedrock.invoke_model(**new_mistral_params) body = response.get('body').read().decode('utf-8') body = json.loads(body) print(body) invoke_bedrock_mistral_tool()