Parameter und Inferenz von Pixtral Large (25.02) - Amazon Bedrock

Die vorliegende Übersetzung wurde maschinell erstellt. Im Falle eines Konflikts oder eines Widerspruchs zwischen dieser übersetzten Fassung und der englischen Fassung (einschließlich infolge von Verzögerungen bei der Übersetzung) ist die englische Fassung maßgeblich.

Parameter und Inferenz von Pixtral Large (25.02)

Pixtral Large 25.02 ist ein multimodales Modell mit 124B Parametern, das hochmodernes Bildverständnis mit leistungsstarken Textverarbeitungsfunktionen kombiniert. AWS ist der erste Cloud-Anbieter, der Pixtral Large (25.02) als vollständig verwaltetes Serverless-Modell anbietet. Dieses Modell bietet erstklassige Leistung bei der Durchführung von Dokumentenanalysen, der Interpretation von Diagrammen und dem Verständnis natürlicher Bilder und behält gleichzeitig die erweiterten Textfunktionen von Mistral Large 2 bei.

Mit einem 128K-Kontextfenster erzielt Pixtral Large 25.02 bei wichtigen Benchmarks wie MathVista, DocVQA und VQAv2 die beste Leistung seiner Klasse. Das Modell bietet umfassende mehrsprachige Unterstützung in vielen Sprachen und wurde in über 80 Programmiersprachen trainiert. Zu den wichtigsten Funktionen gehören fortgeschrittenes mathematisches Denken, systemeigener Funktionsaufruf, JSON-Ausgabe und robuste Kontexttreue für RAG-Anwendungen.

Mit der API zur Chat-Vervollständigung von Mistral AI können Sie Konversationsanwendungen erstellen. Sie können auch die Converse-API von Amazon Bedrock mit diesem Modell verwenden. Sie können Tools nutzen, um Funktionsaufrufe zu tätigen.

Tipp

Sie können die API von Mistral AI zur Chat-Vervollständigung mit den grundlegenden Inferenzoperationen (InvokeModel oder InvokeModelWithResponseStream) verwenden. Wir empfehlen jedoch, die Converse-API zu verwenden, um Nachrichten in Ihrer Anwendung zu implementieren. Die Converse-API bietet einen einheitlichen Satz von Parametern, die für alle Modelle funktionieren, die Nachrichten unterstützen. Weitere Informationen finden Sie unter Führen einer Konversation mit den Converse-API-Operationen.

Das Modell Mistral AI Pixtral Large ist unter der Mistral Research License erhältlich. Weitere Informationen zur Verwendung von Modellen von Mistral AI finden Sie in der Dokumentation für Mistral AI.

Unterstützte Modelle

Sie können die folgenden Modelle von Mistral AI mit den Codebeispielen auf dieser Seite verwenden.

  • Pixtral Large (25.02)

Sie benötigen die Modell-ID für das Modell, das Sie verwenden möchten. Informationen zum Abrufen der Modell-ID finden Sie unter Unterstützte Basismodelle in Amazon Bedrock.

Beispiele für Anforderung und Antwort

Request

Beispiel für den Modellaufruf von Pixtral Large (25.02)

import boto3 import json import base64 input_image = "image.png" with open(input_image, "rb") as f: image = f.read() image_bytes = base64.b64encode(image).decode("utf-8") bedrock = boto3.client( service_name='bedrock-runtime', region_name="us-east-1") request_body = { "messages" : [ { "role" : "user", "content" : [ { "text": "Describe this picture:", "type": "text" }, { "type" : "image_url", "image_url" : { "url" : f"data:image/png;base64,{image_bytes}" } } ] } ], "max_tokens" : 10 } response = bedrock.invoke_model( modelId='us.mistral.pixtral-large-2502-v1:0', body=json.dumps(request_body) ) print(json.dumps(json.loads(response.get('body').read()), indent=4))
Converse

Converse-Beispiel von Pixtral Large (25.02)

import boto3 import json import base64 input_image = "image.png" with open(input_image, "rb") as f: image_bytes = f.read() bedrock = boto3.client( service_name='bedrock-runtime', region_name="us-east-1") messages =[ { "role" : "user", "content" : [ { "text": "Describe this picture:" }, { "image": { "format": "png", "source": { "bytes": image_bytes } } } ] } ] response = bedrock.converse( modelId='mistral.pixtral-large-2502-v1:0', messages=messages ) print(json.dumps(response.get('output'), indent=4))
invoke_model_with_response_stream

Beispiel für invoke_model_with_response_stream von Pixtral Large (25.02)

import boto3 import json import base64 input_image = "image.png" with open(input_image, "rb") as f: image = f.read() image_bytes = base64.b64encode(image).decode("utf-8") bedrock = boto3.client( service_name='bedrock-runtime', region_name="us-east-1") request_body = { "messages" : [ { "role" : "user", "content" : [ { "text": "Describe this picture:", "type": "text" }, { "type" : "image_url", "image_url" : { "url" : f"data:image/png;base64,{image_bytes}" } } ] } ], "max_tokens" : 10 } response = bedrock.invoke_model_with_response_stream( modelId='us.mistral.pixtral-large-2502-v1:0', body=json.dumps(request_body) ) stream = response.get('body') if stream: for event in stream: chunk=event.get('chunk') if chunk: chunk_obj=json.loads(chunk.get('bytes').decode()) print(chunk_obj)
converse_stream

Converse_stream-Beispiel von Pixtral Large (25.02)

import boto3 import json import base64 input_image = "image.png" with open(input_image, "rb") as f: image_bytes = f.read() bedrock = boto3.client( service_name='bedrock-runtime', region_name="us-east-1") messages =[ { "role" : "user", "content" : [ { "text": "Describe this picture:" }, { "image": { "format": "png", "source": { "bytes": image_bytes } } } ] } ] response = bedrock.converse_stream( modelId='mistral.pixtral-large-2502-v1:0', messages=messages ) stream = response.get('stream') if stream: for event in stream: if 'messageStart' in event: print(f"\nRole: {event['messageStart']['role']}") if 'contentBlockDelta' in event: print(event['contentBlockDelta']['delta']['text'], end="") if 'messageStop' in event: print(f"\nStop reason: {event['messageStop']['stopReason']}") if 'metadata' in event: metadata = event['metadata'] if 'usage' in metadata: print("\nToken usage ... ") print(f"Input tokens: {metadata['usage']['inputTokens']}") print( f":Output tokens: {metadata['usage']['outputTokens']}") print(f":Total tokens: {metadata['usage']['totalTokens']}") if 'metrics' in event['metadata']: print( f"Latency: {metadata['metrics']['latencyMs']} milliseconds")
JSON Output

JSON-Ausgabebeispiel von Pixtral Large (25.02)

import boto3 import json bedrock = session.client('bedrock-runtime', 'us-west-2') mistral_params = { "body": json.dumps({ "messages": [{"role": "user", "content": "What is the best French meal? Return the name and the ingredients in short JSON object."}] }), "modelId":"us.mistral.pixtral-large-2502-v1:0", } response = bedrock.invoke_model(**mistral_params) body = response.get('body').read().decode('utf-8') print(json.loads(body))
Tooling

Tools-Beispiel von Pixtral Large (25.02)

data = { 'transaction_id': ['T1001', 'T1002', 'T1003', 'T1004', 'T1005'], 'customer_id': ['C001', 'C002', 'C003', 'C002', 'C001'], 'payment_amount': [125.50, 89.99, 120.00, 54.30, 210.20], 'payment_date': ['2021-10-05', '2021-10-06', '2021-10-07', '2021-10-05', '2021-10-08'], 'payment_status': ['Paid', 'Unpaid', 'Paid', 'Paid', 'Pending'] } # Create DataFrame df = pd.DataFrame(data) def retrieve_payment_status(df: data, transaction_id: str) -> str: if transaction_id in df.transaction_id.values: return json.dumps({'status': df[df.transaction_id == transaction_id].payment_status.item()}) return json.dumps({'error': 'transaction id not found.'}) def retrieve_payment_date(df: data, transaction_id: str) -> str: if transaction_id in df.transaction_id.values: return json.dumps({'date': df[df.transaction_id == transaction_id].payment_date.item()}) return json.dumps({'error': 'transaction id not found.'}) tools = [ { "type": "function", "function": { "name": "retrieve_payment_status", "description": "Get payment status of a transaction", "parameters": { "type": "object", "properties": { "transaction_id": { "type": "string", "description": "The transaction id.", } }, "required": ["transaction_id"], }, }, }, { "type": "function", "function": { "name": "retrieve_payment_date", "description": "Get payment date of a transaction", "parameters": { "type": "object", "properties": { "transaction_id": { "type": "string", "description": "The transaction id.", } }, "required": ["transaction_id"], }, }, } ] names_to_functions = { 'retrieve_payment_status': functools.partial(retrieve_payment_status, df=df), 'retrieve_payment_date': functools.partial(retrieve_payment_date, df=df) } test_tool_input = "What's the status of my transaction T1001?" message = [{"role": "user", "content": test_tool_input}] def invoke_bedrock_mistral_tool(): mistral_params = { "body": json.dumps({ "messages": message, "tools": tools }), "modelId":"us.mistral.pixtral-large-2502-v1:0", } response = bedrock.invoke_model(**mistral_params) body = response.get('body').read().decode('utf-8') body = json.loads(body) choices = body.get("choices") message.append(choices[0].get("message")) tool_call = choices[0].get("message").get("tool_calls")[0] function_name = tool_call.get("function").get("name") function_params = json.loads(tool_call.get("function").get("arguments")) print("\nfunction_name: ", function_name, "\nfunction_params: ", function_params) function_result = names_to_functions[function_name](**function_params) message.append({"role": "tool", "content": function_result, "tool_call_id":tool_call.get("id")}) new_mistral_params = { "body": json.dumps({ "messages": message, "tools": tools }), "modelId":"us.mistral.pixtral-large-2502-v1:0", } response = bedrock.invoke_model(**new_mistral_params) body = response.get('body').read().decode('utf-8') body = json.loads(body) print(body) invoke_bedrock_mistral_tool()