Funzionalità supportate - Amazon SageMaker AI

Le traduzioni sono generate tramite traduzione automatica. In caso di conflitto tra il contenuto di una traduzione e la versione originale in Inglese, quest'ultima prevarrà.

Funzionalità supportate

Per implementare modelli per l’inferenza, Amazon SageMaker AI offre le quattro opzioni indicate di seguito.

  • Inferenza in tempo reale per carichi di lavoro di inferenza con requisiti in tempo reale, interattivi e a bassa latenza.

  • Trasformazione in batch per inferenze offline con set di dati di grandi dimensioni.

  • Inferenza asincrona per inferenze quasi in tempo reale con input di grandi dimensioni che richiedono tempi di preelaborazione più lunghi.

  • Inferenza senza server per carichi di lavoro di inferenza che presentano periodi di inattività tra picchi di traffico.

La tabella seguente riassume le funzionalità principali della piattaforma supportate da ciascuna opzione di inferenza. Non mostra le funzionalità che possono essere fornite da framework, container Docker personalizzati o tramite il concatenamento di diversi servizi AWS.

Funzionalità Inferenza in tempo reale Trasformazione in batch Inferenza asincrona Inferenza serverless Container Docker
Supporto per il dimensionamento automatico N/D N/D
Supporto per GPU ✓ 1 ✓ 1 ✓ 1 1P, precostruito, BYOC
Modello singolo N/D
Endpoint multi-modello k-NN, XGBoost, Linear Learner, RCF, TensorFlow, Apache MXNet, PyTorch, scikit-learn 2
Endpoint multi-container 1P, precostruito, Extend precostruito, BYOC
Pipeline di inferenza seriale 1P, precostruito, Extend precostruito, BYOC
Suggeritore di inferenza 1P, precostruito, Extend precostruito, BYOC
Supporto per Collegamento privato N/D
Supporto per acquisizione dei dati/monitoraggio modello N/D
DLC supportati 1P, precostruito, Extend precostruito, BYOC 1P, precostruito, Extend precostruito, BYOC 1P, precostruito, Extend precostruito, BYOC 1P, precostruito, Extend precostruito, BYOC N/D
Protocolli supportati HTTP(S) HTTP(S) HTTP(S) HTTP(S) N/D
Dimensione payload < 6 MB ≤ 100 MB ≤ 1 GB ≤ 4 MB
Codifica HTTP a blocchi Dipende dal framework, 1P non supportato N/D Dipende dal framework, 1P non supportato Dipende dal framework, 1P non supportato N/D
Timeout richiesta < 60 secondi Giorni < 1 ora < 60 secondi N/D
Guardrail per l'implementazione: implementazioni blu/verde N/D N/D
Guardrail per l'implementazione: implementazioni in sequenza N/D N/D
Shadow testing N/D
Scalabilità a zero N/D N/D
Supporto per pacchetti modello Market Place N/D
Supporto cloud privato virtuale N/D
Supporto di più varianti di produzione N/D
Isolamento della rete N/D
Supporto al servizio parallelo del modello 3 3 3
Crittografia dei volumi N/D
Customer AWS KMS N/D
Istanze d supportate N/D
supporto inf1

Con SageMaker AI puoi implementare uno o più modelli su un singolo endpoint di inferenza per l’inferenza in tempo reale. La tabella seguente riassume le funzionalità principali supportate dalle varie opzioni di hosting fornite con inferenza in tempo reale.

Funzionalità Endpoint per modelli singoli Endpoint multi-modello Pipeline di inferenza seriale Endpoint multi-container
Supporto per il dimensionamento automatico
Supporto per GPU ✓ 1
Modello singolo
Endpoint multi-modello N/D
Endpoint multi-container N/D
Pipeline di inferenza seriale N/D
Suggeritore di inferenza
Supporto per Collegamento privato
Supporto per acquisizione dei dati/monitoraggio modello N/D N/D N/D
DLC supportati 1P, precostruito, Extend precostruito, BYOC k-NN, XGBoost, Linear Learner, RCF, TensorFlow, Apache MXNet, PyTorch, scikit-learn 2 1P, precostruito, Extend precostruito, BYOC 1P, precostruito, Extend precostruito, BYOC
Protocolli supportati HTTP(S) HTTP(S) HTTP(S) HTTP(S)
Dimensione payload < 6 MB < 6 MB < 6 MB < 6 MB
Timeout richiesta < 60 secondi < 60 secondi < 60 secondi < 60 secondi
Guardrail per l'implementazione: implementazioni blu/verde
Guardrail per l'implementazione: implementazioni in sequenza
Shadow testing
Supporto per pacchetti modello Market Place
Supporto cloud privato virtuale
Supporto di più varianti di produzione
Isolamento della rete
Supporto al servizio parallelo del modello 3 3
Crittografia dei volumi
Customer AWS KMS
Istanze d supportate
supporto inf1

1 La disponibilità dei tipi di istanze Amazon EC2 dipende dalla Regione AWS. Per la disponibilità di istanze specifiche per AWS, consulta i Prezzi di Amazon SageMaker AI.

2 Per utilizzare qualsiasi altro framework o algoritmo, ricorri al kit di strumenti di inferenza di SageMaker AI per creare un container che supporti gli endpoint multi-modello.

3 Con SageMaker AI, puoi implementare modelli di grandi dimensioni (fino a 500 GB) per l’inferenza. È possibile configurare il controllo dello stato del container e le quote di timeout per il download, fino a 60 minuti. Ciò ti consentirà di avere più tempo per scaricare e caricare il modello e le risorse associate. Per ulteriori informazioni, consulta Parametri degli endpoint di SageMaker AI per l’inferenza di modelli di grandi dimensioni. È possibile utilizzare container di inferenza dei modelli di grandi dimensioni compatibili con SageMaker AI. È inoltre possibile utilizzare librerie di parallelizzazione dei modelli di terze parti, come Triton con FasterTransformer e DeepSpeed. È necessario assicurarsi che siano compatibili con SageMaker AI.