

As traduções são geradas por tradução automática. Em caso de conflito entre o conteúdo da tradução e da versão original em inglês, a versão em inglês prevalecerá.

# Algoritmos, frameworks e instâncias compatíveis para endpoints multimodelo
<a name="multi-model-support"></a>

Para obter informações sobre os algoritmos, frameworks e tipos de instância que você pode usar com endpoints multi-modelo, consulte as seguintes seções:

## Algoritmos, frameworks e instâncias compatíveis para endpoints multimodelo usando instâncias apoiadas por CPU
<a name="multi-model-support-cpu"></a>

Os contêineres de inferência para os seguintes algoritmos e frameworks oferecem apoio a endpoints multimodelo:
+ [XGBoost algoritmo com Amazon SageMaker AI](xgboost.md)
+ [Algoritmo k-nearest neighbors (k-NN)](k-nearest-neighbors.md)
+ [Algoritmo de Aprendizagem linear](linear-learner.md)
+ [Algoritmo RCF (Random Cut Forest)](randomcutforest.md)
+ [Recursos para usar TensorFlow com a Amazon SageMaker AI](tf.md)
+ [Recursos para usar o Scikit-learn com a Amazon AI SageMaker](sklearn.md)
+ [Recursos para usar o Apache MXNet com a Amazon AI SageMaker](mxnet.md)
+ [Recursos para usar PyTorch com a Amazon SageMaker AI](pytorch.md)

Para usar qualquer outra estrutura ou algoritmo, use o kit de ferramentas de inferência de SageMaker IA para criar um contêiner que ofereça suporte a endpoints de vários modelos. Para mais informações, consulte [Crie seu próprio contêiner para endpoints multimodelo de SageMaker IA](build-multi-model-build-container.md).

Os endpoints multimodelo oferecem apoio a todos os tipos de instância de CPU.

## Algoritmos, frameworks e instâncias compatíveis para endpoints multimodelo usando instâncias apoiadas por GPU
<a name="multi-model-support-gpu"></a>

A hospedagem de vários modelos com suporte de GPU em endpoints de vários modelos é suportada pelo servidor [SageMaker AI Triton Inference](https://docs.aws.amazon.com/sagemaker/latest/dg/triton.html). Isso é compatível com todas as principais estruturas de inferência, como NVIDIA® TensorRT™,,, Python, ONNX PyTorch MXNet XGBoost, scikit-learn, OpenVINO, C\$1\$1 personalizado e muito mais. RandomForest

Para utilizar qualquer outro framework ou algoritmo, você pode usar o backend Triton para Python ou C\$1\$1 para escrever a lógica do seu modelo e servir qualquer modelo personalizado. Após ter o servidor pronto, você pode começar a implantar centenas de modelos de aprendizado profundo por trás de um único endpoint.

Os endpoints multimodelo oferecem apoio aos seguintes tipos de instância de GPU:


| Família de instâncias | Tipo de instância | v CPUs | GiB de memória por vCPU | GPUs | Memória da GPU | 
| --- | --- | --- | --- | --- | --- | 
| p2 | ml.p2.xlarge | 4 | 15.25 | 1 | 12 | 
| p3 | ml.p3.2xlarge | 8 | 7,62 | 1 | 16 | 
| g5 | ml.g5.xlarge | 4 | 4 | 1 | 24 | 
| g5 | ml.g5.2xlarge | 8 | 4 | 1 | 24 | 
| g5 | ml.g5.4xlarge | 16 | 4 | 1 | 24 | 
| g5 | ml.g5.8xlarge | 32 | 4 | 1 | 24 | 
| g5 | ml.g5.16xlarge | 64 | 4 | 1 | 24 | 
| g4dn | ml.g4dn.xlarge | 4 | 4 | 1 | 16 | 
| g4dn | ml.g4dn.2xlarge | 8 | 4 | 1 | 16 | 
| g4dn | ml.g4dn.4xlarge | 16 | 4 | 1 | 16 | 
| g4dn | ml.g4dn.8xlarge | 32 | 4 | 1 | 16 | 
| g4dn | ml.g4dn.16xlarge | 64 | 4 | 1 | 16 | 