Instâncias recomendadas do Inferentia
As instâncias do AWS Inferentia foram projetadas para fornecer alto desempenho e economia para o treinamento de modelos de aprendizado profundo. Especificamente, os tipos de instância Inf2 usam chips AWS Inferentia e o SDK do AWS Neuron
Os clientes podem usar instâncias Inf2 para executar aplicativos de inferência de machine learning em grande escala, como pesquisa, mecanismos de recomendação, visão computacional, reconhecimento de fala, processamento de linguagem natural, personalização e detecção de fraudes, com o menor custo na nuvem.
nota
O tamanho do modelo deve ser um fator ao selecionar uma instância. Se o modelo exceder a RAM disponível de uma instância, escolha outro tipo de instância com memória suficiente para a aplicação.
As instâncias Inf2 do Amazon EC2
têm até 16 chips AWS Inferentia e 100 Gbps de throughput de rede.
Para obter mais informações sobre como usar as DLAMIs do AWS Inferentia, consulte O chip AWS Inferentia com DLAMI.
A seguir
Instâncias recomendadas do Trainium