本文為英文版的機器翻譯版本,如內容有任何歧義或不一致之處,概以英文版為準。
使用 AWS CloudFormation 設定語意搜尋的遠端推論
從 OpenSearch 2.9 版開始,您可以使用遠端推論搭配語意搜尋
透過遠端推論,您可以在 Amazon SageMaker AI 和 Amazon Bedrock 等 ML 服務上遠端託管模型推論,然後使用 ML 連接器將其連接到 Amazon OpenSearch Service。
為了簡化遠端推論的設定,Amazon OpenSearch Service 在 主控台中提供 AWS CloudFormation 範本。CloudFormation 是 AWS 服務 ,您可以將基礎設施視為程式碼,藉此進行佈建和管理 AWS 和第三方資源。
OpenSearch CloudFormation 範本會為您自動化模型佈建程序,讓您可以輕鬆地在 OpenSearch Service 網域中建立模型,然後使用模型 ID 擷取資料並執行神經搜尋查詢。
當您搭配 OpenSearch Service 2.12 版及更新版本使用神經稀疏編碼器時,建議您在本機使用字符器模型,而不是從遠端部署。如需詳細資訊,請參閱 OpenSearch 文件中的稀疏編碼模型
可用的 AWS CloudFormation 範本
下列 AWS CloudFormation 機器學習 (ML) 範本可供使用:
Amazon Bedrock 範本
- Amazon Titan 文字內嵌整合
-
連接至 Amazon Bedrock 的託管 ML 模型,無需個別模型部署,並使用預定的 Amazon Bedrock 端點。如需詳細資訊,請參閱《Amazon Bedrock 使用者指南》中的 Amazon Titan 文字內嵌。
- Cohere 內嵌整合
-
提供 Cohere Embed 模型的存取權,並針對特定文字處理工作流程進行最佳化。如需詳細資訊,請參閱 Cohere 文件網站上的內嵌
。 - Amazon Titan 多模式內嵌
-
支援文字和影像內嵌,並啟用多模式搜尋功能。如需詳細資訊,請參閱《Amazon Bedrock 使用者指南》中的 Amazon Titan 多模態內嵌。
MCP 伺服器整合範本
- MCP 伺服器整合
-
部署 Amazon Bedrock AgentCore 執行期、提供代理程式端點、處理傳入和傳出身分驗證,並支援企業身分驗證的 OAuth。
Amazon SageMaker 範本
- 透過 Amazon SageMaker 與文字內嵌模型整合
-
在 Amazon SageMaker 執行期中部署文字內嵌模型、建立模型成品存取的 IAM 角色,以及建立 ML 連接器以進行語意搜尋。
- 透過 SageMaker 與稀疏編碼器整合
-
設定用於神經搜尋的稀疏編碼模型、建立 AWS Lambda 連接器管理的函數,以及傳回模型 IDs以供立即使用。
先決條件
若要搭配 OpenSearch Service 使用 CloudFormation 範本,請完成下列先決條件。
設定 OpenSearch Service 網域
您必須先設定 Amazon OpenSearch Service 網域並啟用 2.9 版或更新版本,才能使用 CloudFormation 範本。建立 OpenSearch Service 後端角色,以授予 ML Commons 外掛程式為您建立連接器的許可。
CloudFormation 範本會使用預設名稱 為您建立 Lambda IAM 角色LambdaInvokeOpenSearchMLCommonsRole,如果您想要選擇不同的名稱,可以覆寫此角色。範本建立此 IAM 角色後,您需要授予 Lambda 函數呼叫 OpenSearch Service 網域的許可。若要這樣做,請使用下列步驟將名為 的角色映射ml_full_access到您的 OpenSearch Service 後端角色:
-
導覽至 OpenSearch Service 網域的 OpenSearch Dashboards 外掛程式。您可以在 OpenSearch Service 主控台的網域儀表板上找到 Dashboards 端點。
-
從主選單選擇安全性、角色,然後選取 ml_full_access 角色。
-
選擇 Mapped users (已映射的使用者)、Manage mapping (管理映射)。
-
在後端角色下,新增需要呼叫網域許可的 Lambda 角色 ARN。
arn:aws:iam::account-id:role/role-name -
選擇 Map (映射),並確認使用者或角色顯示在 Mapped users (已映射的使用者) 中。
映射角色後,導覽至網域的安全組態,並將 Lambda IAM 角色新增至 OpenSearch Service 存取政策。
在您的 上啟用許可 AWS 帳戶
您的 AWS 帳戶 必須具有存取 CloudFormation 和 Lambda 的許可,以及您為範本 AWS 服務 選擇的任何項目 – SageMaker 執行期或 Amazon Bedrock。
如果您使用的是 Amazon Bedrock,您還必須註冊模型。請參閱《Amazon Bedrock 使用者指南》中的模型存取,以註冊您的模型。
如果您使用自己的 Amazon S3 儲存貯體來提供模型成品,則必須將 CloudFormation IAM 角色新增至 S3 存取政策。如需詳細資訊,請參閱《IAM 使用者指南》中的新增和移除 IAM 身分許可。
語意反白範本的遠端推論
語意反白是一種進階搜尋功能,透過分析查詢的意義和內容來增強結果相關性,而不是僅依賴確切的關鍵字比對。此功能使用機器學習模型來評估搜尋查詢和文件內容之間的語意相似性,識別和強調文件中最相關的句子或段落。與專注於確切詞彙相符的傳統反白方法不同,語意反白會利用 AI 模型,使用查詢和周圍文字的內容資訊來評估每個句子,即使反白段落中沒有確切的搜尋詞彙,也能顯示相關資訊。這種方法對於 AI 驅動的搜尋實作特別有用,其中使用者將語意意義優先於文字字詞比對,允許搜尋管理員提供更智慧和上下文感知的搜尋體驗,強調有意義的內容,而不僅僅是關鍵字出現。如需詳細資訊,請參閱使用語意反白
使用下列程序開啟並執行 AWS CloudFormation 範本,自動設定 Amazon SageMaker 模型以進行語意反白。
使用語意反白 CloudFormation 範本
-
開啟位於 https://https://console.aws.amazon.com/aos/home
的 Amazon OpenSearch Service 主控台。 -
在左側導覽中,選擇整合。
-
在透過 Amazon SageMaker 整合啟用語意反白下,選擇設定網域、設定公有網域。
-
依照提示設定您的模型。
注意
OpenSearch Service 也提供單獨的範本來設定 VPC 網域。如果您使用此範本,則需要提供 Lambda 函數的 VPC ID。