Selecionar e implantar modelos de classificação de texto - SageMaker IA da Amazon

As traduções são geradas por tradução automática. Em caso de conflito entre o conteúdo da tradução e da versão original em inglês, a versão em inglês prevalecerá.

Selecionar e implantar modelos de classificação de texto

Implemente dois modelos de classificação de texto para comparação: DistilBERT Base Cased e BERT Base Uncased. Você verá as diferenças entre esses modelos e os implantará usando a configuração de instância ideal.

Por que esses dois modelos

Esses modelos mostram a escolha entre desempenho e custo que os clientes costumam enfrentar na produção:

  • BERT Base Uncased: maior, mais preciso, mas consome mais recursos e é mais lento.

  • DistilBERT Base Cased: menor, mais rápido, mais econômico, mas possivelmente menos preciso.

Essa comparação ajuda você a escolher o modelo certo para suas necessidades específicas.

Informações sobre os nomes de modelo no catálogo

Os nomes dos modelos de classificação de texto no catálogo incluem os seguintes componentes:

  • BERT: representações de codificador bidirecional com base em transformadores.

  • L-X_H-Y_A-Z: estrutura do modelo em que:

    • L-X: número de camadas (X).

    • H-Y: tamanho oculto (Y).

    • A-Z: número de cabeças de atenção (Z).

  • Small/Base/Large: Tamanho e complexidade do modelo.

  • Uncased/Cased: configuração de distinção de maiúsculas e minúsculas.

Exemplo: Small BERT L-2_H-128_A-2 indica um pequeno modelo BERT com:

  • 2 camadas.

  • 128 unidades ocultas.

  • 2 cabeças de atenção.

Acesse o catálogo de JumpStart modelos

Navegue até os modelos de classificação de texto no JumpStart catálogo.

  1. Abra o SageMaker AI Studio

  2. No painel de navegação à esquerda, selecione JumpStart.

  3. Na JumpStart página, escolha Hugging Face.

  4. Selecione Classificação de texto.

Você deve ver uma lista dos modelos de classificação de texto disponíveis no catálogo, inclusive as variantes DistilBERT e BERT.

Implantar o DistilBERT Base Cased

Implante o modelo DistilBERT usando a configuração padrão.

  1. Na lista de modelos, encontre e escolha DistilBERT Base Cased (da DistilBERT).

  2. Na página de detalhes do modelo, mantenha o tipo de instância padrão.

  3. Mantenha todas as outras configurações padrão e escolha Implantar.

  4. Aguarde de 5 a 10 minutos para a conclusão da implantação.

  5. Para verificar se a implantação foi bem-sucedida, acesse Implantações e Endpoints.

  6. Confirme se o endpoint DistilBERT mostra o status InService.

Implantar o BERT Base Uncased

Implante o modelo BERT para comparação com o DistilBERT.

  1. Retorne aos modelos de classificação de texto do Hugging Face em. JumpStart

  2. Encontre e escolha BERT Base Uncased (do Google BERT).

  3. Mantenha o tipo de instância padrão e escolha Implantar.

  4. Para confirmar as duas implantações, verifique se os dois endpoints mostram o status InService na lista de endpoints.

Ambos os modelos aparecem na sua lista de endpoints com status InService.

Importante

Copie e salve os nomes dos endpoints. Você precisará deles para o processo de avaliação.

Solução de problemas

Se você encontrar problemas de implantação:

  • Para erros de tipo de instância, verifique se você está usando o tipo de instância padrão, não instâncias de CPU, como ml.m5.large.

  • Se você não conseguir encontrar modelos, use o nome exato dos modelos para pesquisar, incluindo o editor entre parênteses.

  • Para implantações com falha, verifique a integridade do serviço na sua região ou tente uma região diferente.

Depois que seu modelo mostrar o status InService, continue em Avaliar e comparar o desempenho do modelo para avaliar seu modelo implantado.