Instâncias recomendadas do Inferentia - AMIs de deep learning da AWS

Instâncias recomendadas do Inferentia

As instâncias do AWS Inferentia foram projetadas para fornecer alto desempenho e economia para o treinamento de modelos de aprendizado profundo. Especificamente, os tipos de instância Inf2 usam chips AWS Inferentia e o SDK do AWS Neuron, que é integrado a estruturas populares de machine learning, como TensorFlow e PyTorch.

Os clientes podem usar instâncias Inf2 para executar aplicativos de inferência de machine learning em grande escala, como pesquisa, mecanismos de recomendação, visão computacional, reconhecimento de fala, processamento de linguagem natural, personalização e detecção de fraudes, com o menor custo na nuvem.

nota

O tamanho do modelo deve ser um fator ao selecionar uma instância. Se o modelo exceder a RAM disponível de uma instância, escolha outro tipo de instância com memória suficiente para a aplicação.

Para obter mais informações sobre como usar as DLAMIs do AWS Inferentia, consulte O chip AWS Inferentia com DLAMI.

A seguir

Instâncias recomendadas do Trainium