As traduções são geradas por tradução automática. Em caso de conflito entre o conteúdo da tradução e da versão original em inglês, a versão em inglês prevalecerá.
Hiperparâmetros de personalização de modelos Llama 3.2 da Meta
Os modelos Meta Llama 3.2 1B, 3B, 11B e 90B oferecem suporte aos seguintes hiperparâmetros para personalização do modelo. O número de épocas que você especifica aumenta o custo de personalização do modelo ao processar mais tokens. Cada época processa todo o conjunto de dados de treinamento uma vez. Para obter mais informações sobre preços, consulte Preços do Amazon Bedrock
Para obter informações sobre o ajuste fino dos modelos Meta Llama, consulte a Meta documentação em https://ai.meta.com/llama/get-started/ #fine -tuning
Hiperparâmetro (console) | Hiperparâmetro (API) | Definição | Mínimo | Máximo | Padrão |
---|---|---|---|---|---|
Epochs | epochCount | O número de iterações em todo o conjunto de dados de treinamento | 1 | 10 | 5 |
Tamanho do lote | batchSize | O número de amostras processadas antes da atualização dos parâmetros do modelo | 1 | 1 | 1 |
Taxa de aprendizado | learningRate | A taxa em que os parâmetros do modelo são atualizados após cada lote | 5.00E-6 | 0.1 | 1.00E-4 |