

As traduções são geradas por tradução automática. Em caso de conflito entre o conteúdo da tradução e da versão original em inglês, a versão em inglês prevalecerá.

# 8. Treinamento contínuo
<a name="training"></a>

O treinamento contínuo significa que o sistema de ML retreina automática e continuamente os modelos de machine learning para se adaptarem às mudanças nos dados antes de serem reimplantados. Os possíveis gatilhos para a recriação incluem alterações de dados, de modelo ou de código.


|  |  | 
| --- |--- |
| **8.1 Verificações: validação da entrada do modelo** | Existem verificações para identificar se a entrada de um modelo não se desvia de um determinado padrão. A validação de entrada significa executar testes funcionais durante a promoção do modelo. Isso também significa ter uma verificação imediata das solicitações de entrada, como o uso de afirmações e tipos enumerados. | 
| **8.2 Retreinar o acionamento: trabalhos agendados** | Esta é a forma mais básica de automação de treinamento. A retreinamento do modelo é definido em uma programação (por exemplo, toda semana). Nesse cenário, a automação provavelmente é baixa, com uma revisão manual e uma verificação pontual dos resultados antes da promoção do modelo. | 
| **8.3 Retreinar o acionamento: novos dados de treinamento** | O novo treinamento é iniciado por um limite de entrada de dados. O modelo pode ser retreinado do zero ou executar atualizações de forma incremental. Com uma quantidade específica de dados em vigor, uma tarefa de treinamento começa. | 
| **8.4 Retreinar o acionamento: degradação da performance do modelo** | Essa técnica usa monitoramento e observabilidade para executar um novo treinamento do modelo e requer um nível maduro de automação. Por exemplo, a precisão diminui a partir de um determinado intervalo, que atua como um gatilho para retreinar um modelo em todos ou em parte dos dados. | 
| **8.5 Retreinar o acionamento: mudança na distribuição de dados** | O monitoramento da mudança na distribuição de dados fornece uma forma de definir gatilhos para retreinar o modelo quando seus dados subjacentes são alterados. Uma violação definida na [mudança de conceito ou mudança de distribuição de dados](https://aws.amazon.com/blogs/machine-learning/detect-nlp-data-drift-using-custom-amazon-sagemaker-model-monitor/) inicia um trabalho de retreinamento do modelo. | 