As traduções são geradas por tradução automática. Em caso de conflito entre o conteúdo da tradução e da versão original em inglês, a versão em inglês prevalecerá.
Selecionar e implantar modelos de classificação de texto
Implemente dois modelos de classificação de texto para comparação: DistilBERT Base Cased e BERT Base Uncased. Você verá as diferenças entre esses modelos e os implantará usando a configuração de instância ideal.
Por que esses dois modelos
Esses modelos mostram a escolha entre desempenho e custo que os clientes costumam enfrentar na produção:
BERT Base Uncased: maior, mais preciso, mas consome mais recursos e é mais lento.
DistilBERT Base Cased: menor, mais rápido, mais econômico, mas possivelmente menos preciso.
Essa comparação ajuda você a escolher o modelo certo para suas necessidades específicas.
Informações sobre os nomes de modelo no catálogo
Os nomes dos modelos de classificação de texto no catálogo incluem os seguintes componentes:
BERT: representações de codificador bidirecional com base em transformadores.
L-X_H-Y_A-Z: estrutura do modelo em que:
L-X: número de camadas (X).
H-Y: tamanho oculto (Y).
A-Z: número de cabeças de atenção (Z).
Small/Base/Large: Tamanho e complexidade do modelo.
Uncased/Cased: configuração de distinção de maiúsculas e minúsculas.
Exemplo: Small BERT L-2_H-128_A-2 indica um pequeno modelo BERT com:
2 camadas.
128 unidades ocultas.
2 cabeças de atenção.
Acesse o catálogo de JumpStart modelos
Navegue até os modelos de classificação de texto no JumpStart catálogo.
-
Abra o SageMaker AI Studio
-
No painel de navegação à esquerda, selecione JumpStart.
-
Na JumpStart página, escolha Hugging Face.
-
Selecione Classificação de texto.
Você deve ver uma lista dos modelos de classificação de texto disponíveis no catálogo, inclusive as variantes DistilBERT e BERT.
Implantar o DistilBERT Base Cased
Implante o modelo DistilBERT usando a configuração padrão.
-
Na lista de modelos, encontre e escolha DistilBERT Base Cased (da DistilBERT).
-
Na página de detalhes do modelo, mantenha o tipo de instância padrão.
-
Mantenha todas as outras configurações padrão e escolha Implantar.
-
Aguarde de 5 a 10 minutos para a conclusão da implantação.
-
Para verificar se a implantação foi bem-sucedida, acesse Implantações e Endpoints.
-
Confirme se o endpoint DistilBERT mostra o status
InService.
Implantar o BERT Base Uncased
Implante o modelo BERT para comparação com o DistilBERT.
-
Retorne aos modelos de classificação de texto do Hugging Face em. JumpStart
-
Encontre e escolha BERT Base Uncased (do Google BERT).
-
Mantenha o tipo de instância padrão e escolha Implantar.
-
Para confirmar as duas implantações, verifique se os dois endpoints mostram o status
InServicena lista de endpoints.
Ambos os modelos aparecem na sua lista de endpoints com status InService.
Importante
Copie e salve os nomes dos endpoints. Você precisará deles para o processo de avaliação.
Solução de problemas
Se você encontrar problemas de implantação:
Para erros de tipo de instância, verifique se você está usando o tipo de instância padrão, não instâncias de CPU, como
ml.m5.large.Se você não conseguir encontrar modelos, use o nome exato dos modelos para pesquisar, incluindo o editor entre parênteses.
Para implantações com falha, verifique a integridade do serviço na sua região ou tente uma região diferente.
Depois que seu modelo mostrar o status InService, continue em Avaliar e comparar o desempenho do modelo para avaliar seu modelo implantado.