Writer Palmyra X4
Writer Palmyra X4 es un modelo con una ventana de contexto de hasta 128 000 tokens. Este modelo destaca en el procesamiento y la comprensión de tareas complejas, lo que lo hace ideal para la automatización de flujos de trabajo, las tareas de programación y el análisis de datos.
Proveedor: Writer
Categorías: generación de texto, generación de código, formato de texto enriquecido
Última versión: v1
Fecha de lanzamiento: 28 de abril de 2025
ID del modelo: —
writer.palmyra-x4-v1:0Modalidad: texto
Número máximo de tokens: 122 880 tokens de entrada, 8192 tokens de salida
Idioma: inglés, español, francés, alemán, chino y otros idiomas
Tipo de implementación: sin servidor
Campo del cuerpo de la solicitud de invocación de Palmyra X4
Cuando realice una llamada a InvokeModel o a InvokeModelWithResponseStream con un modelo Writer, rellene el campo body con un objeto JSON que se ajuste al siguiente. Introduce la petición en el campo text del objeto text_prompts.
{ "modelId": "writer.palmyra-x4-v1:0", "contentType": "application/json", "accept": "application/json", "body": "{\"messages\":[{\"role\":\"user\",\"content\":{\"text\":\"Explain quantum computing in simple terms\"}}]}" }
La siguiente tabla muestra los valores mínimo, máximo y predeterminado de los parámetros numéricos.
| Parámetro | Tipo | Predeterminado/a | Alcance/Validación | Descripción |
|---|---|---|---|---|
Mensajes |
matriz |
Obligatorio |
1-∞ elementos |
Mensajes del historial de chat |
temperature |
float |
1.0 |
0,0 ≤ x ≤ 2,0 |
Temperatura de muestreo |
top_p |
float |
1.0 |
0,0 < valor ≤ 1,0 |
Umbral de muestreo del núcleo |
max_tokens |
int |
16 |
1 ≤ x ≤ 8192 |
Número máximo de tokens que se pueden generar |
min_tokens |
int |
0 |
0 ≤ x ≤ max_tokens |
Número mínimo de tokens antes de detenerse |
parar |
matriz |
[] |
≤4 entradas |
Secuencias de parada |
valor de inicialización |
int |
nulo |
Cualquier entero |
Random seed (Origen aleatorio) |
presence_penalty |
float |
0.0 |
-2,0 ≤ x ≤ 2,0 |
Penalización por presencia de nuevos tokens |
frequency_penalty |
float |
0.0 |
-2,0 ≤ x ≤ 2,0 |
Penalización por frecuencia de tokens |
Campo del cuerpo de la respuesta de invocación de Palmyra X4
El JSON de respuesta de Writer Palmyra X4 usa el siguiente formato:
{ "id": "chatcmpl-a689a6e150b048ca8814890d3d904d41", "object": "chat.completion", "created": 1745854231, "model": "writer.palmyra-x4-v1:0", "choices": [ { "index": 0, "message": { "role": "assistant", "reasoning_content": null, "content": "Quantum computing harnesses quantum mechanics to process information in extraordinarily powerful ways. Unlike classical bits, which are 0 or 1, quantum bits (qubits) can exist in multiple states simultaneously through superposition. Qubits also entangle, allowing them to be interconnected in such a way that the state of one (whether it's 0 or 1) can depend on the state of another, no matter the distance between them. This combination of superposition and entanglement enables quantum computers to solve complex problems much faster than classical computers, particularly in areas like cryptography, optimization, and simulations of molecular structures. However, quantum computing is still in its early stages, facing challenges in stability and scalability.", "tool_calls": [] }, "logprobs": null, "finish_reason": "stop", "stop_reason": null } ], "usage": { "prompt_tokens": 43, "total_tokens": 186, "completion_tokens": 143, "prompt_tokens_details": null }, "prompt_logprobs": null }
Writer Palmyra X4Código de ejemplo del
Ejemplos de código de Writer Palmyra X4:
import boto3 import json from botocore.exceptions import ClientError client = boto3.client("bedrock-runtime", region_name="us-west-2") model_id = "writer.palmyra-x4-v1:0" # Format the request payload using the model's native structure. native_request = { "temperature": 1, "messages": [ { "role": "user", "content": "Explain quantum computing in simple terms.", } ], } # Convert the native request to JSON. request = json.dumps(native_request) try: # Invoke the model with the request. response = client.invoke_model(modelId=model_id, body=request) except (ClientError, Exception) as e: print(f"ERROR: Can't invoke '{model_id}'. Reason: {e}") exit(1) # Decode the response body. model_response = json.loads(response["body"].read()) # Extract and print the response text. response_text = model_response["content"][0]["text"] print(response_text)