Instancias de Inferentia recomendadas
Las instancias de AWS Inferentia están diseñadas para proporcionar alto rendimiento y rentabilidad para cargas de trabajo de inferencia de modelos de aprendizaje profundo. En concreto, los tipos de instancias Inf2 utilizan chips de AWS Inferentia y el SDK de AWS Neuron
Los clientes pueden usar las instancias de Inf2 para ejecutar aplicaciones de inferencia de machine learning a gran escala, como búsquedas, motores de recomendación, visión artificial, reconocimiento de voz, procesamiento del lenguaje natural, personalización y detección de fraudes, al menor costo en la nube.
nota
El tamaño del modelo debe ser un factor a tener en cuenta para la elección de una instancia. Si su modelo supera la RAM disponible de una instancia, seleccione otro tipo de instancia con memoria suficiente para la aplicación.
Las instancias Inf2 de Amazon EC2
tienen hasta 16 chips de AWS Inferentia y 100 Gbps de rendimiento de red.
Para obtener más información sobre cómo empezar a utilizar las DLAMI de AWS Inferentia, consulte El chip de AWSInferentia con DLAMI.
Tema siguiente
Instancias de Trainium recomendadas