Instancias de Inferentia recomendadas - AWS Deep Learning AMIs

Instancias de Inferentia recomendadas

Las instancias de AWS Inferentia están diseñadas para proporcionar alto rendimiento y rentabilidad para cargas de trabajo de inferencia de modelos de aprendizaje profundo. En concreto, los tipos de instancias Inf2 utilizan chips de AWS Inferentia y el SDK de AWS Neuron, que está integrado con marcos de machine learning populares, como TensorFlow y PyTorch.

Los clientes pueden usar las instancias de Inf2 para ejecutar aplicaciones de inferencia de machine learning a gran escala, como búsquedas, motores de recomendación, visión artificial, reconocimiento de voz, procesamiento del lenguaje natural, personalización y detección de fraudes, al menor costo en la nube.

nota

El tamaño del modelo debe ser un factor a tener en cuenta para la elección de una instancia. Si su modelo supera la RAM disponible de una instancia, seleccione otro tipo de instancia con memoria suficiente para la aplicación.

Para obtener más información sobre cómo empezar a utilizar las DLAMI de AWS Inferentia, consulte El chip de AWSInferentia con DLAMI.

Tema siguiente

Instancias de Trainium recomendadas