

Le traduzioni sono generate tramite traduzione automatica. In caso di conflitto tra il contenuto di una traduzione e la versione originale in Inglese, quest'ultima prevarrà.

# Query di inferenza in Neptune ML
<a name="machine-learning-inference-queries"></a>

Per eseguire query sull'endpoint di inferenza Neptune ML è possibile usare Gremlin o SPARQL. L'[inferenza induttiva in tempo reale](machine-learning-overview-evolving-data.md#inductive-vs-transductive-inference), tuttavia, è attualmente supportata solo per le query Gremlin.