Writer Palmyra X4
Writer Palmyra X4 ist ein Modell mit einem Kontextfenster von bis zu 128 000 Token. Dieses Modell zeichnet sich durch die Verarbeitung und das Verständnis komplexer Aufgaben aus und eignet sich daher ideal für Workflow-Automatisierung, Codierungsaufgaben und Datenanalyse.
Anbieter – Writer
Kategorien – Textgenerierung, Codegenerierung, Rich-Text-Formatierung
Letzte Version – V1
Veröffentlichungsdatum – 28. April 2025
Model ID: –
writer.palmyra-x4-v1:0Modalität – Text
Max. Token – Eingabe: 122 880 Token, Ausgabe: 8 192 Token
Sprache – Englisch, Spanisch, Französisch, Deutsch, Chinesisch und mehrere andere Sprachen
Bereitstellungstyp – Serverless
Textfeld für die Palmyra-X4-Aufrufanforderung
Wenn Sie mit einem Writer-Modell einen InvokeModel- oder InvokeModelWithResponseStream-Aufruf ausführen, füllen Sie das body-Feld mit einem JSON-Objekt aus, das dem unten stehenden entspricht. Geben Sie die Eingabeaufforderung in das Feld text im Objekt text_prompts ein.
{ "modelId": "writer.palmyra-x4-v1:0", "contentType": "application/json", "accept": "application/json", "body": "{\"messages\":[{\"role\":\"user\",\"content\":{\"text\":\"Explain quantum computing in simple terms\"}}]}" }
Die folgende Tabelle zeigt die minimalen, maximalen und standardmäßigen Werte für die numerischen Parameter.
| Parameter | Typ | Standard | Bereich/Validierung | Beschreibung |
|---|---|---|---|---|
messages |
Array |
Erforderlich |
1-∞ Elemente |
Nachrichten im Chatverlauf |
temperature |
float |
1,0 |
0,0 ≤ x ≤ 2,0 |
Sampling-Temperatur |
top_p |
float |
1,0 |
0,0 < Wert ≤ 1,0 |
Nukleus-Sampling-Schwellenwert |
max_tokens |
int |
16 |
1 ≤ x ≤ 8 192 |
Höchstzahl der zu generierenden Token |
min_tokens |
int |
0 |
0 ≤ x ≤ max_token |
Mindestanzahl an Token vor dem Beenden |
stop |
Array |
[] |
≤4 Einträge |
Sequenzen beenden |
Seed |
int |
Null |
Beliebige Ganzzahl |
Random Seed (Zufällige Seed) |
presence_penalty |
float |
0.0 |
-2,0 ≤ x ≤ 2,0 |
Neue Token-Präsenzstrafe |
frequency_penalty |
float |
0.0 |
-2,0 ≤ x ≤ 2,0 |
Token-Frequenzstrafe |
Textfeld für die Palmyra-X4-Aufrufantwort
Die JSON-Antwort für Writer Palmyra X4 verwendet das folgende Format:
{ "id": "chatcmpl-a689a6e150b048ca8814890d3d904d41", "object": "chat.completion", "created": 1745854231, "model": "writer.palmyra-x4-v1:0", "choices": [ { "index": 0, "message": { "role": "assistant", "reasoning_content": null, "content": "Quantum computing harnesses quantum mechanics to process information in extraordinarily powerful ways. Unlike classical bits, which are 0 or 1, quantum bits (qubits) can exist in multiple states simultaneously through superposition. Qubits also entangle, allowing them to be interconnected in such a way that the state of one (whether it's 0 or 1) can depend on the state of another, no matter the distance between them. This combination of superposition and entanglement enables quantum computers to solve complex problems much faster than classical computers, particularly in areas like cryptography, optimization, and simulations of molecular structures. However, quantum computing is still in its early stages, facing challenges in stability and scalability.", "tool_calls": [] }, "logprobs": null, "finish_reason": "stop", "stop_reason": null } ], "usage": { "prompt_tokens": 43, "total_tokens": 186, "completion_tokens": 143, "prompt_tokens_details": null }, "prompt_logprobs": null }
Writer Palmyra X4Beispiel-Code für
Beispielcode für Writer Palmyra X4:
import boto3 import json from botocore.exceptions import ClientError client = boto3.client("bedrock-runtime", region_name="us-west-2") model_id = "writer.palmyra-x4-v1:0" # Format the request payload using the model's native structure. native_request = { "temperature": 1, "messages": [ { "role": "user", "content": "Explain quantum computing in simple terms.", } ], } # Convert the native request to JSON. request = json.dumps(native_request) try: # Invoke the model with the request. response = client.invoke_model(modelId=model_id, body=request) except (ClientError, Exception) as e: print(f"ERROR: Can't invoke '{model_id}'. Reason: {e}") exit(1) # Decode the response body. model_response = json.loads(response["body"].read()) # Extract and print the response text. response_text = model_response["content"][0]["text"] print(response_text)