Recursos da DLAMI - AMIs de deep learning da AWS

As traduções são geradas por tradução automática. Em caso de conflito entre o conteúdo da tradução e da versão original em inglês, a versão em inglês prevalecerá.

Recursos da DLAMI

Os recursos de AMIs de deep learning da AWS (DLAMIs) incluem frameworks de aprendizado profundo pré-instalados, software de GPU, servidores de modelos e ferramentas de visualização de modelos.

Frameworks pré-instalados

No momento, há dois tipos principais de DLAMI com outras variações relacionadas ao sistema operacional (SO) e às versões de software:

A AMI de aprendizado profundo com Conda usa ambientes conda para isolar cada estrutura de trabalho, para que você possa alternar entre eles conforme sua necessidade e para que não se preocupe com suas dependências conflitantes. A AMI de aprendizado profundo com Conda é compatível com os seguintes frameworks:

  • PyTorch

  • TensorFlow 2

nota

A DLAMI não é mais compatível com os seguintes frameworks de aprendizado profundo: Apache MXNet, Microsoft Cognitive Toolkit (CNTK), Caffe, Caffe2, Theano, Chainer e Keras.

Software de GPU pré-instalado

Mesmo que você use uma instância somente para CPU, as DLAMIs terão o NVIDIA CUDA e o NVIDIA cuDNN. O software instalado é o mesmo, independentemente do tipo de instância. Lembre-se de que as ferramentas específicas para GPU só funcionam em instâncias que têm pelo menos uma GPU. Para ter mais informações sobre os tipos de instância, consulte Escolher o tipo de instância de DLAMI.

Para ter mais informações sobre o CUDA, consulte Instalações do CUDA e associações da estrutura.

Fornecimento e visualização de modelos

A AMI de aprendizado profundo com Conda vem com servidores de modelos pré-instalados para TensorFlow, além de TensorBoard para visualizações de modelos. Para obter mais informações, consulte TensorFlow Servindo.