Escritora Palmyra X4 - Amazon Bedrock

As traduções são geradas por tradução automática. Em caso de conflito entre o conteúdo da tradução e da versão original em inglês, a versão em inglês prevalecerá.

Escritora Palmyra X4

Writer Palmyra X4é um modelo com uma janela de contexto de até 128.000 tokens. Esse modelo é excelente no processamento e compreensão de tarefas complexas, tornando-o ideal para automação de fluxo de trabalho, tarefas de codificação e análise de dados.

  • Provedor — Escritor

  • Categorias — geração de texto, geração de código, formatação de rich text

  • Última versão — v1

  • Data de lançamento — 28 de abril de 2025

  • ID do modelo — writer.palmyra-x4-v1:0

  • Modalidade — Texto

  • Máximo de tokens — Entrada: 122.880 tokens, saída: 8192 tokens

  • Idioma — inglês, espanhol, francês, alemão, chinês e vários outros idiomas

  • Tipo de implantação — Sem servidor

Campo do corpo da solicitação de invocação do Palmyra X4

Ao fazer uma InvokeModelWithResponseStreamchamada InvokeModelou usando um modelo do Writer, preencha o body campo com um objeto JSON que esteja em conformidade com o abaixo. Insira o prompt no campo text do objeto text_prompts.

{ "modelId": "writer.palmyra-x4-v1:0", "contentType": "application/json", "accept": "application/json", "body": "{\"messages\":[{\"role\":\"user\",\"content\":{\"text\":\"Explain quantum computing in simple terms\"}}]}" }

A tabela a seguir mostra os valores mínimo, máximo e padrão para os parâmetros numéricos.

Parameter Tipo Padrão Alcança/Validação Descrição

mensagens

array

Obrigatório

1-∞ itens

Mensagens do histórico de bate-papo

temperature

flutuação

1,0

0,0 ≤ x ≤ 2,0

Temperatura de amostragem

top_p

flutuação

1,0

0,0 < valor ≤ 1,0

Limite de amostragem do núcleo

max_tokens

int

16

1 ≤ x ≤ 8192

Máximo de tokens a serem gerados

min_tokens

int

0

0 ≤ x ≤ max_tokens

Tokens mínimos antes de parar

parar

array

[]

≤ 4 entradas

Pare as sequências

semente

int

nulo

Qualquer número inteiro

Random seed (Semente aleatória)

penalidade_presença

flutuação

0.0

-2,0 ≤ x ≤ 2,0

Nova penalidade de presença de token

penalidade_frequência

flutuação

0.0

-2,0 ≤ x ≤ 2,0

Penalidade de frequência de token

Campo corporal de resposta de invocação do Palmyra X4

A resposta JSON para Writer Palmyra X4 usa o seguinte formato:

{ "id": "chatcmpl-a689a6e150b048ca8814890d3d904d41", "object": "chat.completion", "created": 1745854231, "model": "writer.palmyra-x4-v1:0", "choices": [ { "index": 0, "message": { "role": "assistant", "reasoning_content": null, "content": "Quantum computing harnesses quantum mechanics to process information in extraordinarily powerful ways. Unlike classical bits, which are 0 or 1, quantum bits (qubits) can exist in multiple states simultaneously through superposition. Qubits also entangle, allowing them to be interconnected in such a way that the state of one (whether it's 0 or 1) can depend on the state of another, no matter the distance between them. This combination of superposition and entanglement enables quantum computers to solve complex problems much faster than classical computers, particularly in areas like cryptography, optimization, and simulations of molecular structures. However, quantum computing is still in its early stages, facing challenges in stability and scalability.", "tool_calls": [] }, "logprobs": null, "finish_reason": "stop", "stop_reason": null } ], "usage": { "prompt_tokens": 43, "total_tokens": 186, "completion_tokens": 143, "prompt_tokens_details": null }, "prompt_logprobs": null }

Código de exemplo do Writer Palmyra X4

Código de exemplo paraWriter Palmyra X4:

import boto3 import json from botocore.exceptions import ClientError client = boto3.client("bedrock-runtime", region_name="us-west-2") model_id = "writer.palmyra-x4-v1:0" # Format the request payload using the model's native structure. native_request = { "temperature": 1, "messages": [ { "role": "user", "content": "Explain quantum computing in simple terms.", } ], } # Convert the native request to JSON. request = json.dumps(native_request) try: # Invoke the model with the request. response = client.invoke_model(modelId=model_id, body=request) except (ClientError, Exception) as e: print(f"ERROR: Can't invoke '{model_id}'. Reason: {e}") exit(1) # Decode the response body. model_response = json.loads(response["body"].read()) # Extract and print the response text. response_text = model_response["content"][0]["text"] print(response_text)