As traduções são geradas por tradução automática. Em caso de conflito entre o conteúdo da tradução e da versão original em inglês, a versão em inglês prevalecerá.
Tipos e estruturas de instância compatíveis
O Amazon SageMaker Neo oferece apoio a frameworks mais conhecidos de aprendizado profundo para compilação e implantação. Você pode implantar o modelo compilado em instâncias de nuvem ou tipos de instância AWS Inferentia.
A seguir, descrevemos as estruturas compatíveis com o SageMaker Neo e as instâncias de nuvem de destino nas quais você pode compilar e implantar. Para obter informações sobre como implantar seu modelo compilado em uma instância de nuvem ou Inferentia, consulte Implantar um modelo com instâncias de nuvem.
Instâncias de nuvem
O SageMaker Neo é compatível com as seguintes estruturas de aprendizado profundo para instâncias de nuvem de CPU e GPU:
| Framework | Versão do framework | Versão do modelo | Modelos da | Formatos de modelo (empacotados em *.tar.gz) | Kits de ferramentas |
|---|---|---|---|---|---|
| MXNet | 1.8.0 | Compatível com 1.8.0 ou anterior | Classificação de imagens, detecção de objetos, segmentação semântica, estimativa de pose, reconhecimento de atividades | Um arquivo de símbolos (.json) e um arquivo de parâmetros (.params) | GluonCV v0.8.0 |
| ONNX | 1.7.0 | Compatível com 1.7.0 ou anterior | Classificação de imagens, SVM | Um arquivo de modelo (.onnx) | |
| Keras | 2.2.4 | Compatível com 2.2.4 ou anterior | Classificação de imagens | Um arquivo de definição de modelo (.h5) | |
| PyTorch | 1.4, 1.5, 1.6, 1.7, 1.8, 1.12, 1.13, ou 2.0 | Compatível com 1.4, 1.5, 1.6, 1.7, 1.8, 1.12, 1.13, e 2.0 |
Classificação de imagens As versões 1.13 e 2.0 são compatíveis com Detecção de Objetos, Transformador de Visão e HuggingFace |
Um arquivo de definição de modelo (.pt ou .pth) com dtype de entrada de float32 | |
| TensorFlow | 1.15.3 ou 2.9 | Compatível com 1.15.3 e 2.9 | Classificação de imagens | Para os modelos salvos, um arquivo .pb ou um arquivo .pbtxt e um diretório de variáveis que contenha variáveis Para modelos congelados, apenas um arquivo .pb ou .pbtxt |
|
| XGBoost | 1.3.3 | Compatível com 1.3.3 ou anterior | Árvores de decisão | Um arquivo de modelo XGBoost (.model) em que o número de nós em uma árvore é menor que 2^31 |
nota
“Versão do modelo” é a versão da estrutura usada para treinar e exportar o modelo.
Tipos de instância
Você pode implantar seu modelo compilado do SageMaker AI em uma das instâncias de nuvem listadas abaixo:
| Instância | Tipo de computação |
|---|---|
|
Padrão |
|
Padrão |
|
Padrão |
|
Padrão |
|
Computação acelerada |
|
Computação acelerada |
|
Computação acelerada |
Para obter informações sobre a vCPU, a memória e o preço por hora disponíveis para cada tipo de instância, consulte a definição de preços do Amazon SageMaker
nota
Ao compilar para instâncias ml_* usando a estrutura PyTorch, use o campo de opções do compilador na Configuração de saída para fornecer o tipo de dados correto (dtype) da entrada do modelo.
O padrão é definido como "float32".
AWS Inferência
O SageMaker Neo é compatível com as seguintes estruturas de aprendizado profundo para Inf1:
| Framework | Versão do framework | Versão do modelo | Modelos da | Formatos de modelo (empacotados em *.tar.gz) | Kits de ferramentas |
|---|---|---|---|---|---|
| MXNet | 1.5 or 1.8 | Compatível com 1.8, 1.5 ou anterior | Classificação de imagens, detecção de objetos, segmentação semântica, estimativa de pose, reconhecimento de atividades | Um arquivo de símbolos (.json) e um arquivo de parâmetros (.params) | GluonCV v0.8.0 |
| PyTorch | 1.7, 1.8 or 1.9 | Compatível com 1.9 ou anterior | Classificação de imagens | Um arquivo de definição de modelo (.pt ou .pth) com dtype de entrada de float32 | |
| TensorFlow | 1.15 ou 2.5 | Compatível com 2.5, 1.15 ou anterior | Classificação de imagens | Para os modelos salvos, um arquivo .pb ou um arquivo .pbtxt e um diretório de variáveis que contenha variáveis Para modelos congelados, apenas um arquivo .pb ou .pbtxt |
nota
“Versão do modelo” é a versão da estrutura usada para treinar e exportar o modelo.
Você pode implantar seu modelo necompilado do SageMaker em em instâncias da AWS Amazon EC2 Inf1 baseadas em inferência. O Inferentia é o primeiro chip de silício personalizado da Amazon projetado para acelerar o aprendizado profundo. Atualmente, você pode usar a instância ml_inf1 para implantar seus modelos compilados.
Inferentia2 da AWS e Trainium da AWS
Atualmente, você pode implantar seu modelo compilado pelo SageMaker Neo em instâncias AWS Amazon EC2 Inf2 baseadas em Inferentia2 (na região Leste dos EUA (Ohio)) e em instâncias Amazon EC2 Trn1 baseadas em AWS Trainium (na região Leste dos EUA (Norte da Virgínia)). Para obter mais informações sobre os modelos compatíveis nessas instâncias, consulte as Diretrizes de ajuste da arquitetura de modelos