Instâncias de GPU recomendadas
Recomendamos uma instância de GPU para a maioria dos objetivos de aprendizado profundo. O treinamento de novos modelos é mais rápido em uma instância de GPU do que em uma instância de CPU. Você pode dimensionar de forma sublinear quando tem instâncias de várias GPUs ou usa treinamento distribuído em muitas instâncias com GPUs.
Os tipos de instância a seguir são compatíveis com a DLAMI. Para obter informações sobre as opções de tipo de instância de GPU e seus usos, consulte , Tipos de instância de EC2
nota
O tamanho do modelo deve ser um fator ao selecionar uma instância. Se o modelo exceder a RAM disponível de uma instância, escolha outro tipo de instância com memória suficiente para a aplicação.
-
As instâncias P6-B200 do Amazon EC2
têm até 8 GPUs NVIDIA Blackwell B200. -
As instâncias P6e-GB200 do Amazon EC2
têm até 4 GPUs NVIDIA Blackwell GB200. -
As instâncias P5e do Amazon EC2
têm até 8 GPUs NVIDIA Tesla H200. -
As instâncias P5 do Amazon EC2
têm até 8 GPUs NVIDIA Tesla H100. -
As instâncias P4 do Amazon EC2
têm até 8 GPUs NVIDIA Tesla A100. As instâncias P3 do Amazon EC2
têm até 8 GPUs NVIDIA Tesla V100. -
As instâncias G3 do Amazon EC2
têm até 4 GPUs NVIDIA Tesla M60. -
As instâncias G4 do Amazon EC2
têm até 4 GPUs NVIDIA T4. -
As instâncias G5 do Amazon EC2
têm até 8 GPUs NVIDIA A10G. -
As instâncias G6 do Amazon EC2
têm até 8 GPUs NVIDIA L4. -
As instâncias G6e do Amazon EC2
têm até 8 GPUs NVIDIA L40S Tensor Core. -
As instâncias G5g do Amazon EC2
têm processadores AWS Graviton2 baseados em Arm64.
As instâncias da DLAMI oferecem ferramentas para monitorar e otimizar seus processos da GPU. Para obter mais informações sobre o monitoramento dos processos da GPU, consulte Monitoramento e otimização de GPU.
Para ver tutoriais específicos sobre como trabalhar com instâncias G5g, consulte A DLAMI para ARM64.
A seguir
Instâncias de CPU recomendadas