Scrittore Palmyra X4 - Amazon Bedrock

Le traduzioni sono generate tramite traduzione automatica. In caso di conflitto tra il contenuto di una traduzione e la versione originale in Inglese, quest'ultima prevarrà.

Scrittore Palmyra X4

Writer Palmyra X4è un modello con una finestra contestuale di un massimo di 128.000 token. Questo modello eccelle nell'elaborazione e nella comprensione di attività complesse, il che lo rende ideale per l'automazione del flusso di lavoro, le attività di codifica e l'analisi dei dati.

  • Fornitore — Scrittore

  • Categorie: generazione di testo, generazione di codice, formattazione RTF

  • Ultima versione: v1

  • Data di rilascio: 28 aprile 2025

  • ID del modello: writer.palmyra-x4-v1:0

  • Modalità: testo

  • Numero massimo di token: input: 122.880 token, output: 8192 token

  • Lingua: inglese, spagnolo, francese, tedesco, cinese e molte altre lingue

  • Tipo di distribuzione: serverless

Body della richiesta di invocazione Palmyra X4

Quando effettui una InvokeModelWithResponseStreamchiamata InvokeModelo utilizzando un modello Writer, compila il body campo con un oggetto JSON conforme a quello riportato di seguito. Immetti il prompt nel campo text dell'oggetto text_prompts.

{ "modelId": "writer.palmyra-x4-v1:0", "contentType": "application/json", "accept": "application/json", "body": "{\"messages\":[{\"role\":\"user\",\"content\":{\"text\":\"Explain quantum computing in simple terms\"}}]}" }

La tabella che segue mostra i valori minimo, massimo e predefinito per i parametri numerici.

Parametro Tipo Predefinita Intervallo/convalida Descrizione

messaggi

array

Richiesto

1-∞ articoli

Messaggi della cronologia chat

temperature

float

1.0

0,0 ≤ x ≤ 2,0

Temperatura di campionamento

top_p

float

1.0

0,0 < valore ≤ 1,0

Soglia di campionamento del nucleo

max_tokens

int

16

1 ≤ x ≤ 8192

Numero massimo di token da generare

min_tokens

int

0

0 ≤ x ≤ max_tokens

Numero minimo di gettoni prima di fermarsi

arresta

array

[]

≤4 entrate

Sequenze di arresto

seed

int

nullo

Qualsiasi numero intero

Random seed (Origine casuale)

presence_penalty

float

0,0

-2,0 ≤ x ≤ 2,0

Nuova penalità di presenza di token

penalità di frequenza

float

0,0

-2,0 ≤ x ≤ 2,0

Penalità relativa alla frequenza dei token

Campo corporeo di risposta all'invocazione Palmyra X4

La risposta JSON per utilizza il seguente formato: Writer Palmyra X4

{ "id": "chatcmpl-a689a6e150b048ca8814890d3d904d41", "object": "chat.completion", "created": 1745854231, "model": "writer.palmyra-x4-v1:0", "choices": [ { "index": 0, "message": { "role": "assistant", "reasoning_content": null, "content": "Quantum computing harnesses quantum mechanics to process information in extraordinarily powerful ways. Unlike classical bits, which are 0 or 1, quantum bits (qubits) can exist in multiple states simultaneously through superposition. Qubits also entangle, allowing them to be interconnected in such a way that the state of one (whether it's 0 or 1) can depend on the state of another, no matter the distance between them. This combination of superposition and entanglement enables quantum computers to solve complex problems much faster than classical computers, particularly in areas like cryptography, optimization, and simulations of molecular structures. However, quantum computing is still in its early stages, facing challenges in stability and scalability.", "tool_calls": [] }, "logprobs": null, "finish_reason": "stop", "stop_reason": null } ], "usage": { "prompt_tokens": 43, "total_tokens": 186, "completion_tokens": 143, "prompt_tokens_details": null }, "prompt_logprobs": null }

Codice di esempio per Writer Palmyra X4

Codice di esempio perWriter Palmyra X4:

import boto3 import json from botocore.exceptions import ClientError client = boto3.client("bedrock-runtime", region_name="us-west-2") model_id = "writer.palmyra-x4-v1:0" # Format the request payload using the model's native structure. native_request = { "temperature": 1, "messages": [ { "role": "user", "content": "Explain quantum computing in simple terms.", } ], } # Convert the native request to JSON. request = json.dumps(native_request) try: # Invoke the model with the request. response = client.invoke_model(modelId=model_id, body=request) except (ClientError, Exception) as e: print(f"ERROR: Can't invoke '{model_id}'. Reason: {e}") exit(1) # Decode the response body. model_response = json.loads(response["body"].read()) # Extract and print the response text. response_text = model_response["content"][0]["text"] print(response_text)