Wird verwendet AWS CloudFormation , um Remote-Inferenz für die semantische Suche einzurichten - OpenSearch Amazon-Dienst

Die vorliegende Übersetzung wurde maschinell erstellt. Im Falle eines Konflikts oder eines Widerspruchs zwischen dieser übersetzten Fassung und der englischen Fassung (einschließlich infolge von Verzögerungen bei der Übersetzung) ist die englische Fassung maßgeblich.

Wird verwendet AWS CloudFormation , um Remote-Inferenz für die semantische Suche einzurichten

Ab OpenSearch Version 2.9 können Sie Remote-Inferenz mit semantischer Suche verwenden, um Ihre eigenen Modelle für maschinelles Lernen (ML) zu hosten. Remote Inference verwendet das ML Commons-Plugin.

Mit Remote Inference können Sie Ihre Modellinferenzen remote auf ML-Services wie Amazon SageMaker AI und Amazon Bedrock hosten und sie über ML-Konnektoren mit Amazon OpenSearch Service verbinden.

Um die Einrichtung von Remote-Inferenzen zu vereinfachen, stellt Amazon OpenSearch Service eine AWS CloudFormationVorlage in der Konsole bereit. CloudFormation ist ein Programm, AWS-Service in dem Sie Ressourcen von Drittanbietern bereitstellen AWS und verwalten können, indem Sie Infrastruktur als Code behandeln.

Die OpenSearch CloudFormation Vorlage automatisiert den Prozess der Modellbereitstellung für Sie, sodass Sie auf einfache Weise ein Modell in Ihrer OpenSearch Service-Domain erstellen und dann die Modell-ID verwenden können, um Daten aufzunehmen und neuronale Suchabfragen auszuführen.

Wenn Sie neuronale Sparse-Encoder mit OpenSearch Service Version 2.12 und höher verwenden, empfehlen wir, das Tokenizer-Modell lokal zu verwenden, anstatt es remote bereitzustellen. Weitere Informationen finden Sie in der Dokumentation unter Sparse-Kodierungsmodelle. OpenSearch

Verfügbare Vorlagen AWS CloudFormation

Die folgenden Vorlagen für AWS CloudFormation maschinelles Lernen (ML) stehen zur Verwendung zur Verfügung:

Amazon Bedrock-Vorlagen
Integration von Amazon Titan-Texteinbettungen

Stellt eine Verbindung zu den gehosteten ML-Modellen von Amazon Bedrock her, macht eine separate Modellbereitstellung überflüssig und verwendet vordefinierte Amazon Bedrock-Endpunkte. Weitere Informationen finden Sie unter Amazon Titan Text Embeddings im Amazon Bedrock-Benutzerhandbuch.

Cohere Integration einbetten

Bietet Zugriff auf Cohere Embed-Modelle und ist für bestimmte Textverarbeitungs-Workflows optimiert. Weitere Informationen finden Sie unter Embed auf der Cohere Docs-Website.

Multimodale Einbettungen von Amazon Titan

Unterstützt sowohl Text- als auch Bildeinbettungen und ermöglicht multimodale Suchfunktionen. Weitere Informationen finden Sie unter Amazon Titan Multimodal Embeddings im Amazon Bedrock-Benutzerhandbuch.

Vorlagen für die MCP-Serverintegration
MCP-Serverintegration

Stellt eine Amazon Bedrock AgentCore Runtime bereit, stellt einen Agenten-Endpunkt bereit, verarbeitet eingehende und ausgehende Authentifizierung und unterstützt OAuth die Unternehmensauthentifizierung.

SageMaker Amazon-Vorlagen
Integration mit Modellen zur Texteinbettung über Amazon SageMaker

Stellt Modelle zur Texteinbettung in Amazon SageMaker Runtime bereit, erstellt IAM-Rollen für den Zugriff auf Modellartefakte und richtet ML-Konnektoren für die semantische Suche ein.

Integration mit Sparse Encoders durch SageMaker

Richtet Sparse-Codierungsmodelle für die neuronale Suche ein, erstellt AWS Lambda Funktionen für die Konnektorverwaltung und gibt das Modell IDs zur sofortigen Verwendung zurück.

Voraussetzungen

Um eine CloudFormation Vorlage mit OpenSearch Service zu verwenden, müssen Sie die folgenden Voraussetzungen erfüllen.

Richten Sie eine OpenSearch Dienstdomäne ein

Bevor Sie eine CloudFormation Vorlage verwenden können, müssen Sie eine Amazon OpenSearch Service-Domain mit Version 2.9 oder höher und aktivierter detaillierter Zugriffskontrolle einrichten. Erstellen Sie eine OpenSearch Service-Backend-Rolle, um dem ML Commons-Plugin die Erlaubnis zu erteilen, Ihren Connector für Sie zu erstellen.

Die CloudFormation Vorlage erstellt für Sie eine Lambda-IAM-Rolle mit dem StandardnamenLambdaInvokeOpenSearchMLCommonsRole, den Sie überschreiben können, wenn Sie einen anderen Namen wählen möchten. Nachdem die Vorlage diese IAM-Rolle erstellt hat, müssen Sie der Lambda-Funktion die Erlaubnis erteilen, Ihre OpenSearch Service-Domain aufzurufen. Ordnen Sie dazu die benannte Rolle mit ml_full_access den folgenden Schritten Ihrer OpenSearch Service-Backend-Rolle zu:

  1. Navigieren Sie zum OpenSearch Dashboards-Plugin für Ihre OpenSearch Service-Domain. Sie finden den Dashboards-Endpunkt in Ihrem Domain-Dashboard in der OpenSearch Service-Konsole.

  2. Wählen Sie im Hauptmenü Sicherheit, Rollen und dann die Rolle ml_full_access aus.

  3. Wählen Sie Zugeordnete Benutzer, Mapping verwalten.

  4. Fügen Sie unter Backend-Rollen den ARN der Lambda-Rolle hinzu, für die eine Berechtigung zum Aufrufen Ihrer Domain erforderlich ist.

    arn:aws:iam::account-id:role/role-name
  5. Wählen Sie Zuordnen und bestätigen Sie, dass der Benutzer oder die Rolle unter Zugeordnete Benutzer angezeigt wird.

Nachdem Sie die Rolle zugeordnet haben, navigieren Sie zur Sicherheitskonfiguration Ihrer Domain und fügen Sie die Lambda IAM-Rolle zu Ihrer OpenSearch Servicezugriffsrichtlinie hinzu.

Aktivieren Sie die Berechtigungen auf Ihrem AWS-Konto

Sie AWS-Konto müssen über die Zugriffsberechtigung CloudFormation und Lambda verfügen, zusammen mit dem, was AWS-Service Sie für Ihre Vorlage wählen — entweder SageMaker Runtime oder Amazon Bedrock.

Wenn Sie Amazon Bedrock verwenden, müssen Sie auch Ihr Modell registrieren. Informationen zur Registrierung Ihres Modells finden Sie unter Modellzugriff im Amazon Bedrock-Benutzerhandbuch.

Wenn Sie Ihren eigenen Amazon S3 S3-Bucket verwenden, um Modellartefakte bereitzustellen, müssen Sie die CloudFormation IAM-Rolle zu Ihrer S3-Zugriffsrichtlinie hinzufügen. Informationen finden Sie im Abschnitt Hinzufügen und Entfernen von IAM-Identitätsberechtigungen im -IAM-Benutzerhandbuch.