Documentazione del container di inferenza del modello di grandi dimensioni (LMI) - Amazon SageMaker AI

Le traduzioni sono generate tramite traduzione automatica. In caso di conflitto tra il contenuto di una traduzione e la versione originale in Inglese, quest'ultima prevarrà.

Documentazione del container di inferenza del modello di grandi dimensioni (LMI)

La documentazione relativa ai container di inferenza del modello di grandi dimensioni (LMI) è disponibile nel sito della documentazione di Deep Java Library.

La documentazione, che si rivolge a sviluppatori, data scientist e ingegneri di machine learning che devono implementare e ottimizzare modelli linguistici di grandi dimensioni (LLM) su Amazon SageMaker AI, semplifica l’utilizzo utilizzare dei container LMI, ovvero i container Docker specializzati per l’inferenza LLM, forniti da AWS. Offre una panoramica, guide all’implementazione, guide per l’utente alle librerie di inferenza supportate e tutorial avanzati.

La documentazione del container LMI consente di:

  • Comprendere i componenti e l’architettura dei container LMI

  • Scoprire come selezionare il tipo di istanza e il backend appropriati per il tuo caso d’uso

  • Configurare e implementare LLM su SageMaker AI utilizzando container LMI

  • Ottimizzare le prestazioni utilizzando funzionalità come quantizzazione, parallelizzazione tensoriale e batching continuo

  • Eseguire il benchmark e il fine-tuning degli endpoint di SageMaker AI per un throughput e una latenza ottimali