

Le traduzioni sono generate tramite traduzione automatica. In caso di conflitto tra il contenuto di una traduzione e la versione originale in Inglese, quest'ultima prevarrà.

# Il chip AWS Inferentia con DLAMI
<a name="tutorial-inferentia"></a>

AWS Inferentia è un chip di machine learning personalizzato progettato da AWS cui è possibile utilizzare per previsioni di inferenza ad alte prestazioni. Per utilizzare il chip, configura un'istanza Amazon Elastic Compute Cloud e utilizza il kit di sviluppo software (SDK) AWS Neuron per richiamare il chip Inferentia. Per offrire ai clienti la migliore esperienza con Inferentia, Neuron è stato integrato in ( AWS Deep Learning AMIs DLAMI). 

I seguenti argomenti mostrano come iniziare a usare Inferentia con DLAMI. 

**Topics**
+ [Avvio di un'istanza DLAMI con Neuron AWS](tutorial-inferentia-launching.md)
+ [Usare il DLAMI con Neuron AWS](tutorial-inferentia-using.md)