As traduções são geradas por tradução automática. Em caso de conflito entre o conteúdo da tradução e da versão original em inglês, a versão em inglês prevalecerá.
Usando AWS CloudFormation para configurar a inferência remota para pesquisa semântica
A partir da OpenSearch versão 2.9, você pode usar a inferência remota com pesquisa semântica
Com a inferência remota, você pode hospedar suas inferências de modelo remotamente em serviços de ML, como Amazon AI SageMaker e Amazon Bedrock, e conectá-las ao Amazon OpenSearch Service com conectores de ML.
Para facilitar a configuração da inferência remota, o Amazon OpenSearch Service fornece um AWS CloudFormationmodelo no console. CloudFormation é um AWS service (Serviço da AWS) local onde você pode provisionar AWS e gerenciar recursos de terceiros tratando a infraestrutura como código.
O OpenSearch CloudFormation modelo automatiza o processo de provisionamento do modelo para que você possa criar facilmente um modelo em seu domínio de OpenSearch serviço e, em seguida, usar o ID do modelo para ingerir dados e executar consultas de pesquisa neural.
Ao usar codificadores neurais esparsos com a versão 2.12 e posteriores do OpenSearch Service, recomendamos que você use o modelo de tokenizador localmente em vez de implantá-lo remotamente. Para obter mais informações, consulte Modelos de codificação esparsa
Tópicos
AWS CloudFormation Modelos disponíveis
Os seguintes modelos AWS CloudFormation de aprendizado de máquina (ML) estão disponíveis para uso:
Modelos do Amazon Bedrock
- Integração com Amazon Titan Text Embeddings
-
Conecta-se aos modelos de ML hospedados do Amazon Bedrock, elimina a necessidade de implantação separada de modelos e usa endpoints predeterminados do Amazon Bedrock. Para obter mais informações, consulte Amazon Titan Text Embeddings no Guia do usuário do Amazon Bedrock.
- Integração Cohere Embed
-
Fornece acesso aos modelos Cohere Embed e é otimizado para fluxos de trabalho específicos de processamento de texto. Para obter mais informações, consulte Incorporar
no site de documentos do Cohere. - Incorporações multimodais Amazon Titan
-
Suporta incorporações de texto e imagem e habilita recursos de pesquisa multimodal. Para obter mais informações, consulte Amazon Titan Multimodal Embeddings no Guia do usuário do Amazon Bedrock.
Modelos de integração do servidor MCP
- Integração do servidor MCP
-
Implanta um Amazon Bedrock AgentCore Runtime, fornece um endpoint de agente, gerencia a autenticação de entrada e saída e oferece suporte à autenticação corporativa. OAuth
SageMaker Modelos da Amazon
- Integração com modelos de incorporação de texto por meio da Amazon SageMaker
-
Implanta modelos de incorporação de texto no Amazon SageMaker Runtime, cria funções do IAM para acesso ao artefato do modelo e estabelece conectores de ML para pesquisa semântica.
- Integração com codificadores esparsos por meio de SageMaker
-
Configura modelos de codificação esparsos para pesquisa neural, cria AWS Lambda funções para gerenciamento de conectores e retorna o modelo IDs para uso imediato.
Pré-requisitos
Para usar um CloudFormation modelo com o OpenSearch Serviço, preencha os seguintes pré-requisitos.
Configurar um domínio OpenSearch de serviço
Antes de usar um CloudFormation modelo, você deve configurar um domínio do Amazon OpenSearch Service com a versão 2.9 ou posterior e um controle de acesso refinado ativado. Crie uma função OpenSearch de back-end de serviço para dar permissão ao plug-in ML Commons para criar seu conector para você.
O CloudFormation modelo cria uma função do Lambda IAM para você com o nome padrãoLambdaInvokeOpenSearchMLCommonsRole
, que você pode substituir se quiser escolher um nome diferente. Depois que o modelo criar essa função do IAM, você precisa dar permissão à função Lambda para chamar seu domínio de OpenSearch serviço. Para fazer isso, mapeie a função nomeada ml_full_access
para sua função OpenSearch de back-end de serviço com as seguintes etapas:
-
Navegue até o plug-in OpenSearch Dashboards do seu domínio OpenSearch de serviço. Você pode encontrar o endpoint do Dashboards no painel do seu domínio no console de OpenSearch serviços.
-
No menu principal, escolha Segurança, Funções e selecione a função ml_full_access.
-
Escolha Usuários mapeados e Gerenciar mapeamento.
-
Em Funções de backend, adicione o ARN da função do Lambda que precisa de permissão para chamar seu domínio.
arn:aws:iam::
account-id
:role/role-name
-
Selecione Mapa e confirme se o usuário ou função aparece em Usuários mapeados.
Depois de mapear a função, navegue até a configuração de segurança do seu domínio e adicione a função Lambda IAM à OpenSearch sua política de acesso ao serviço.
Ative as permissões no seu Conta da AWS
Você Conta da AWS deve ter permissão para acessar CloudFormation o Lambda, junto com o que AWS service (Serviço da AWS) você escolher para seu modelo — Runtime SageMaker ou Amazon Bedrock.
Se estiver usando o Amazon Bedrock, você também deve registrar seu modelo. Consulte Acesso aos modelos no Guia do usuário do Amazon Bedrock para registrar seu modelo.
Se você estiver usando seu próprio bucket do Amazon S3 para fornecer artefatos de modelo, deverá adicionar a função do CloudFormation IAM à sua política de acesso do S3. Para obter mais informações, consulte Adicionar e remover permissões de identidade do IAM no Guia do usuário do IAM.