Integração do servidor MCP - Teste de carga distribuído na AWS

As traduções são geradas por tradução automática. Em caso de conflito entre o conteúdo da tradução e da versão original em inglês, a versão em inglês prevalecerá.

Integração do servidor MCP

Se você implantou o componente opcional do servidor MCP durante a implantação da solução, poderá integrar a solução de teste de carga distribuída às ferramentas de desenvolvimento de IA que oferecem suporte ao Model Context Protocol. O servidor MCP fornece acesso programático para recuperar, gerenciar e analisar testes de carga por meio de assistentes de IA.

Os clientes podem se conectar ao servidor DLT MCP usando o cliente de sua escolha (Amazon Q, Claude etc.), cada um com instruções de configuração ligeiramente diferentes. Esta seção fornece instruções de configuração para MCP Inspector, Amazon Q CLI, Cline e Amazon Q Suite.

Etapa 1: Obtenha o endpoint MCP e o token de acesso

Antes de configurar qualquer cliente MCP, você precisa recuperar o endpoint do servidor MCP e o token de acesso do console web DLT.

  1. Navegue até a página MCP Server no console web do Distributed Load Testing.

  2. Localize a seção MCP Server Endpoint.

  3. Copie o URL do endpoint usando o botão Copiar URL do endpoint. O URL do endpoint segue o formato: https://[api-id].execute-api.[region].amazonaws.com/[stage]/gateway/backend-agent/sse/mcp

  4. Localize a seção Token de acesso.

  5. Copie o token de acesso usando o botão Copiar token de acesso.

Importante

Mantenha seu token de acesso seguro e não o compartilhe publicamente. O token fornece acesso somente de leitura à sua solução de teste de carga distribuída por meio da interface MCP.

Página de credenciais do MCP Server mostrando o endpoint e o token de acesso

Passo 2: Teste com o MCP Inspector

O Model Context Protocol oferece o MCP Inspector, uma ferramenta para se conectar diretamente aos servidores MCP e invocar ferramentas. Isso fornece uma interface de usuário conveniente e exemplos de solicitações de rede para testar sua conexão com o servidor MCP antes de configurar clientes de IA.

nota

O MCP Inspector requer a versão 0.17 ou posterior. Todas as solicitações também podem ser feitas diretamente com o JSON RPC, mas o MCP Inspector fornece uma interface mais amigável.

Instale e inicie o MCP Inspector

  1. Instale o npm, se necessário.

  2. Execute o seguinte comando para iniciar o MCP Inspector:

    npx @modelcontextprotocol/inspector

Configurar a conexão

  1. Na interface do MCP Inspector, insira seu URL do MCP Server Endpoint.

  2. Adicione um cabeçalho de autorização com seu token de acesso.

  3. Clique em Connect para estabelecer a conexão.

Ecrã de configuração do MCP Inspector

Invocar ferramentas

Depois de conectado, você pode testar as ferramentas MCP disponíveis:

  1. Navegue pela lista de ferramentas disponíveis no painel esquerdo.

  2. Selecione uma ferramenta (por exemplo,list_scenarios).

  3. Forneça todos os parâmetros necessários.

  4. Clique em Invocar para executar a ferramenta e visualizar a resposta.

Inspector MCP mostrando as ferramentas e invocação disponíveis

Etapa 3: configurar clientes de desenvolvimento de IA

Depois de verificar a conexão do servidor MCP com o MCP Inspector, você pode configurar seu cliente de desenvolvimento de IA preferido.

CLI do Amazon Q

O Amazon Q CLI fornece acesso por linha de comando ao desenvolvimento assistido por IA com a integração do servidor MCP.

Etapas de configuração

  1. Edite o arquivo mcp.json de configuração. Para obter mais informações sobre a localização do arquivo de configuração, consulte Configuração de servidores MCP remotos no Amazon Q Developer User Guide.

  2. Adicione sua configuração de servidor DLT MCP:

    { "mcpServers": { "dlt-mcp": { "type": "http", "url": "https://[api-id].execute-api.[region].amazonaws.com/[stage]/gateway/backend-agent/sse/mcp", "headers": { "Authorization": "your_access_token_here" } } } }

Verifique a configuração

  1. Em um terminal, digite q para iniciar o Amazon Q CLI.

  2. Digite /mcp para ver todos os servidores MCP disponíveis.

  3. Digite /tools para ver as ferramentas disponíveis fornecidas por dlt-mcp e outros servidores MCP configurados.

  4. Verifique se dlt-mcp foi inicializado com sucesso.

Cline

O Cline é um assistente de codificação de IA que suporta a integração do servidor MCP.

Etapas de configuração

  1. Em Cline, navegue até Gerenciar servidores MCP > Configurar > Configurar servidores MCP.

  2. Atualize o arquivo cline_mcp_settings.json:

    { "mcpServers": { "dlt-mcp": { "type": "streamableHttp", "url": "https://[api-id].execute-api.[region].amazonaws.com/[stage]/gateway/backend-agent/sse/mcp", "headers": { "Authorization": "your_access_token_here" } } } }
  3. Salve o arquivo de configuração.

  4. Reinicie o Cline para aplicar as alterações.

Suíte Amazon Q

O Amazon Q Suite fornece uma plataforma abrangente de assistente de IA com suporte para ações do servidor MCP.

Pré-requisitos

Antes de configurar o servidor MCP no Amazon Q Suite, você precisa recuperar as OAuth credenciais do grupo de usuários do Cognito da sua implantação de DLT:

  1. Navegue até o CloudFormation console da AWS.

  2. Selecione a pilha de testes de carga distribuída.

  3. Na guia Saídas, localize e copie o ID do Grupo de Usuários do Cognito associado à sua implantação de DLT.

    Pool de usuários do DLT CloudFormation Cognito
  4. Acesse o console do Amazon Cognito.

  5. Selecione o grupo de usuários usando o ID do grupo de usuários nas CloudFormation saídas.

  6. No painel de navegação à esquerda, selecione Integração de aplicativos > Clientes de aplicativos.

    ID e segredo do cliente Cognito
  7. Localize o cliente do aplicativo com o nome terminado em m2m (machine-to-machine).

  8. Copie o ID do cliente e o segredo do cliente.

  9. Obtenha o domínio do grupo de usuários na guia Domínio.

    ID e segredo do cliente Cognito
  10. Crie o URL do endpoint do token anexando-o /oauth2/token ao final do domínio.

Etapas de configuração

  1. No Amazon Q Suite, crie um novo agente ou selecione um agente existente.

  2. Adicione um prompt de agente que descreva como interagir com o servidor DLT MCP.

  3. Adicione uma nova ação e selecione a ação do servidor MCP.

    QuickSuite Ações do agente
    QuickSuite Ferramenta de servidor MCP
  4. Configure os detalhes do servidor MCP:

    • URL do servidor MCP: Seu endpoint DLT MCP

      QuickSuite Configuração do domínio da ferramenta MCP
    • Tipo de autenticação: autenticação baseada em serviços

    • Token Endpoint: Seu URL do endpoint do token Cognito

    • ID do cliente: O ID do cliente do aplicativo m2m

    • Segredo do cliente: O segredo do cliente do aplicativo m2m

      QuickSuite Autenticação do agente da ferramenta MCP
  5. Salve a configuração de ação do servidor MCP.

  6. Adicione a nova ação do servidor MCP ao seu agente.

Inicie e teste o agente

  1. Inicie o agente no Amazon Q Suite.

  2. Inicie uma conversa com o agente usando instruções em linguagem natural.

  3. O agente usará as ferramentas MCP para recuperar e analisar seus dados de teste de carga.

Exemplos de prompts

Os exemplos a seguir demonstram como interagir com seu assistente de IA para analisar dados de teste de carga por meio da interface MCP. Personalize o teste IDs, os intervalos de datas e os critérios para atender às suas necessidades específicas de teste.

Para obter informações detalhadas sobre as ferramentas MCP disponíveis e seus parâmetros, consulte a especificação das ferramentas MCP no Guia do desenvolvedor.

Consulta simples de resultados de testes

A interação da linguagem natural com o servidor MCP pode ser tão simples quanto Show me the load tests that have completed in the last 24 hours with their associated completion status ou pode ser mais descritiva, como

Use list_scenarios to find my load tests. Then use get_latest_test_run to show me the basic execution data and performance metrics for the most recent test. If the results look concerning, also get the detailed performance metrics using get_test_run.

Análise de desempenho interativa com divulgação progressiva

I need to analyze my load test performance, but I'm not sure which specific tests to focus on. Please help me by: 1. First, use list_scenarios to show me available test scenarios 2. Ask me which tests I want to analyze based on the list you show me 3. For my selected tests, use list_test_runs to get the test run history 4. Then use get_test_run with the test_run_id to get detailed response times, throughput, and error rates 5. If I want to compare tests, use get_baseline_test_run to compare against the baseline 6. If there are any issues, use get_test_run_artifacts to help me understand what went wrong Please guide me through this step by step, asking for clarification whenever you need more specific information.

Validação da prontidão de produção

Help me validate if my API is ready for production deployment: 1. Use list_scenarios to find recent test scenarios 2. For the most recent test scenario, use get_latest_test_run to get basic execution data 3. Use get_test_run with that test_run_id to get detailed response times, error rates, and throughput 4. Use get_scenario_details with the test_id to show me what load patterns and endpoints were tested 5. If I have a baseline, use get_baseline_test_run to compare current results with the baseline 6. Provide a clear go/no-go recommendation based on the performance data 7. If there are any concerns, use get_test_run_artifacts to help identify potential issues My SLA requirements are: response time under [X]ms, error rate under [Y]%.

Análise de tendências de desempenho

Analyze the performance trend for my load tests over the past [TIME_PERIOD]: 1. Use list_scenarios to get all test scenarios 2. For each scenario, use list_test_runs with start_date and end_date to get tests from that period 3. Use get_test_run for the key test runs to get detailed metrics 4. Use get_baseline_test_run to compare against the baseline 5. Identify any significant changes in response times, error rates, or throughput 6. If you detect performance degradation, use get_test_run_artifacts on the problematic tests to help identify causes 7. Present the trend analysis in a clear format showing whether performance is improving, stable, or degrading Focus on completed tests and limit results to [N] tests if there are too many.

Solução de problemas em testes com falha

Help me troubleshoot my failed load tests: 1. Use list_scenarios to find test scenarios 2. For each scenario, use list_test_runs to find recent test runs 3. Use get_test_run with the test_run_id to get the basic execution data and failure information 4. Use get_test_run_artifacts to get detailed error messages and logs 5. Use get_scenario_details to understand what was being tested when it failed 6. If I have a similar test that passed, use get_baseline_test_run to identify differences 7. Summarize the causes of failure and suggest next steps for resolution Show me the most recent [N] failed tests from the past [TIME_PERIOD].