Le traduzioni sono generate tramite traduzione automatica. In caso di conflitto tra il contenuto di una traduzione e la versione originale in Inglese, quest'ultima prevarrà.
SageMaker Modelli Amazon
I SageMaker CloudFormation modelli Amazon definiscono più AWS risorse per configurare il plug-in neurale e la ricerca semantica per te.
Inizia utilizzando il modello Integrazione con modelli di incorporamento del testo tramite Amazon per distribuire un SageMaker modello di incorporamento di testo in SageMaker Runtime come server. Se non fornisci un endpoint modello, CloudFormation crea un ruolo IAM che consente a SageMaker Runtime di scaricare gli artefatti del modello da Amazon S3 e distribuirli sul server. Se fornisci un endpoint, CloudFormation crea un ruolo IAM che consente alla funzione Lambda di accedere al dominio OpenSearch del servizio o, se il ruolo esiste già, aggiorna e riutilizza il ruolo. L'endpoint serve il modello remoto utilizzato per il connettore ML con il plug-in ML Commons.
Quindi, utilizza il SageMaker modello Integration with Sparse Encoders through Amazon per creare una funzione Lambda che consenta al tuo dominio di configurare connettori di inferenza remoti. Dopo aver creato il connettore in OpenSearch Service, l'inferenza remota può eseguire una ricerca semantica utilizzando il modello remoto in Runtime. SageMaker Il modello ti restituisce l'ID del modello nel tuo dominio in modo che tu possa iniziare la ricerca.
Per utilizzare i CloudFormation modelli Amazon SageMaker AI
-
Apri la console Amazon OpenSearch Service
. -
Nel riquadro di navigazione a sinistra, scegli Integrazioni.
-
In ciascuno dei modelli Amazon SageMaker AI, scegli Configura dominio, Configura dominio pubblico.
-
Segui le istruzioni nella CloudFormation console per effettuare il provisioning dello stack e configurare un modello.
Nota
OpenSearch Il servizio fornisce anche un modello separato per configurare il dominio VPC. Se utilizzi questo modello, devi fornire l'ID VPC per la funzione Lambda.