Opção 1: fornecer seus próprios prompts para a preparação de dados - Amazon Bedrock

As traduções são geradas por tradução automática. Em caso de conflito entre o conteúdo da tradução e da versão original em inglês, a versão em inglês prevalecerá.

Opção 1: fornecer seus próprios prompts para a preparação de dados

Colete seus prompts e armazene-os no formato de arquivo .jsonl. Cada registro no JSONL deve usar a estrutura a seguir.

  • Inclua o campo schemaVersion que deve ter o valor bedrock-conversion-2024.

  • (Opcional) Inclua um prompt do sistema que indique o perfil atribuído ao modelo.

  • No campo messages, inclua um perfil de usuário que contenha o prompt de entrada fornecido ao modelo.

  • (Opcional) No campo messages, inclua um perfil de assistente que contenha a resposta desejada.

Os modelos Anthropic e Meta Llama permitem somente prompts de conversação de um único turno, o que significa que só é possível ter um único prompt de usuário. Os modelos do Amazon Nova permitem conversas de vários turnos, o que possibilita que você ofereça várias trocas entre usuários e assistentes em um único registro.

Formato de exemplo

{ "schemaVersion": "bedrock-conversation-2024", "system": [{ "text": "A chat between a curious User and an artificial intelligence Bot. The Bot gives helpful, detailed, and polite answers to the User's questions." }], "messages": [{ "role": "user", "content": [{ "text": "why is the sky blue" }] }, { "role": "assistant", "content": [{ "text": "The sky is blue because molecules in the air scatter blue light from the Sun more than other colors." }] } ] }}

Validar o conjunto de dados

Antes de executar um trabalho de destilação, é possível validar o conjunto de dados de entrada usando um script Python.