Writer Palmyra X4
O Writer Palmyra X4 é um modelo com uma janela de contexto de até 128 mil tokens. Esse modelo é excelente para processamento e compreensão de tarefas complexas, o que o torna ideal para automação de fluxos de trabalho, tarefas de codificação e análise de dados.
Fornecedor: Writer
Categorias: geração de texto, geração de código, formatação de rich text
Última versão: v1
Data de lançamento: 28 de abril de 2025
ID de modelo:
writer.palmyra-x4-v1:0Modalidade: texto
Máximo de tokens: entrada: 122.880 tokens, saída: 8.192 tokens
Idioma: inglês, espanhol, francês, alemão, chinês e vários outros
Tipo de implantação: sem servidor
Campo do corpo da resposta de invocação do Palmyra X4
Ao fazer uma chamada InvokeModel ou InvokeModelWithResponseStream usando um modelo da Writer, preencha o campo body com um objeto JSON que esteja em conformidade com o modelo abaixo. Insira o prompt no campo text do objeto text_prompts.
{ "modelId": "writer.palmyra-x4-v1:0", "contentType": "application/json", "accept": "application/json", "body": "{\"messages\":[{\"role\":\"user\",\"content\":{\"text\":\"Explain quantum computing in simple terms\"}}]}" }
A tabela a seguir mostra os valores mínimo, máximo e padrão para os parâmetros numéricos.
| Parameter | Tipo | Padrão | Intervalo/Validação | Descrição |
|---|---|---|---|---|
mensagens |
array |
Obrigatório |
1-∞ itens |
Mensagens do histórico de chat |
temperature |
flutuação |
1,0 |
0.0 ≤ x ≤ 2.0 |
Temperatura da amostragem |
top_p |
flutuação |
1,0 |
0.0 < value ≤ 1.0 |
Limite da amostragem do núcleo |
max_tokens |
int |
16 |
1 ≤ x ≤ 8192 |
Máximo de tokens a serem gerados |
min_tokens |
int |
0 |
0 ≤ x ≤ max_tokens |
Tokens mínimos antes de parar |
parar |
array |
[] |
≤4 entradas |
Sequências de paradas |
semente |
int |
nulo |
Qualquer inteiro |
Random seed (Semente aleatória) |
presence_penalty |
flutuação |
0.0 |
-2.0 ≤ x ≤ 2.0 |
Penalidade de presença de um novo token |
frequency_penalty |
flutuação |
0.0 |
-2.0 ≤ x ≤ 2.0 |
Penalidade de frequência de token |
Campo do corpo da resposta de invocação do Palmyra X4
A resposta JSON para o Writer Palmyra X4 usa o seguinte formato:
{ "id": "chatcmpl-a689a6e150b048ca8814890d3d904d41", "object": "chat.completion", "created": 1745854231, "model": "writer.palmyra-x4-v1:0", "choices": [ { "index": 0, "message": { "role": "assistant", "reasoning_content": null, "content": "Quantum computing harnesses quantum mechanics to process information in extraordinarily powerful ways. Unlike classical bits, which are 0 or 1, quantum bits (qubits) can exist in multiple states simultaneously through superposition. Qubits also entangle, allowing them to be interconnected in such a way that the state of one (whether it's 0 or 1) can depend on the state of another, no matter the distance between them. This combination of superposition and entanglement enables quantum computers to solve complex problems much faster than classical computers, particularly in areas like cryptography, optimization, and simulations of molecular structures. However, quantum computing is still in its early stages, facing challenges in stability and scalability.", "tool_calls": [] }, "logprobs": null, "finish_reason": "stop", "stop_reason": null } ], "usage": { "prompt_tokens": 43, "total_tokens": 186, "completion_tokens": 143, "prompt_tokens_details": null }, "prompt_logprobs": null }
Writer Palmyra X4Código de exemplo do
Exemplo de código para o Writer Palmyra X4:
import boto3 import json from botocore.exceptions import ClientError client = boto3.client("bedrock-runtime", region_name="us-west-2") model_id = "writer.palmyra-x4-v1:0" # Format the request payload using the model's native structure. native_request = { "temperature": 1, "messages": [ { "role": "user", "content": "Explain quantum computing in simple terms.", } ], } # Convert the native request to JSON. request = json.dumps(native_request) try: # Invoke the model with the request. response = client.invoke_model(modelId=model_id, body=request) except (ClientError, Exception) as e: print(f"ERROR: Can't invoke '{model_id}'. Reason: {e}") exit(1) # Decode the response body. model_response = json.loads(response["body"].read()) # Extract and print the response text. response_text = model_response["content"][0]["text"] print(response_text)