Integrazione con server MCP - Test di carico distribuito su AWS

Le traduzioni sono generate tramite traduzione automatica. In caso di conflitto tra il contenuto di una traduzione e la versione originale in Inglese, quest'ultima prevarrà.

Integrazione con server MCP

Se hai distribuito il componente server MCP opzionale durante l'implementazione della soluzione, puoi integrare la soluzione Distributed Load Testing con strumenti di sviluppo AI che supportano il Model Context Protocol. Il server MCP fornisce l'accesso programmatico per recuperare, gestire e analizzare i test di carico tramite assistenti AI.

I clienti possono connettersi al server MCP DLT utilizzando il client di loro scelta (Amazon Q, Claude, ecc.), ognuno con istruzioni di configurazione leggermente diverse. Questa sezione fornisce istruzioni di configurazione per MCP Inspector, Amazon Q CLI, Cline e Amazon Q Suite.

Fase 1: Ottieni l'endpoint MCP e il token di accesso

Prima di configurare qualsiasi client MCP, è necessario recuperare l'endpoint del server MCP e il token di accesso dalla console web DLT.

  1. Vai alla pagina MCP Server nella console web Distributed Load Testing.

  2. Individuate la sezione MCP Server Endpoint.

  3. Copia l'URL dell'endpoint utilizzando il pulsante Copia URL dell'endpoint. L'URL dell'endpoint segue il formato: https://[api-id].execute-api.[region].amazonaws.com/[stage]/gateway/backend-agent/sse/mcp

  4. Individua la sezione Access Token.

  5. Copia il token di accesso utilizzando il pulsante Copia token di accesso.

Importante

Mantieni sicuro il tuo token di accesso e non condividerlo pubblicamente. Il token fornisce l'accesso in sola lettura alla soluzione Distributed Load Testing tramite l'interfaccia MCP.

Pagina delle credenziali del server MCP che mostra l'endpoint e il token di accesso

Fase 2: Test con MCP Inspector

Il Model Context Protocol offre MCP Inspector, uno strumento per connettersi direttamente ai server MCP e richiamare strumenti. Ciò fornisce una comoda interfaccia utente e esempi di richieste di rete per testare la connessione al server MCP prima di configurare i client AI.

Nota

MCP Inspector richiede la versione 0.17 o successiva. Tutte le richieste possono essere effettuate anche direttamente con JSON RPC, ma MCP Inspector offre un'interfaccia più intuitiva.

Installa e avvia MCP Inspector

  1. Installa npm se necessario.

  2. Eseguite il seguente comando per avviare MCP Inspector:

    npx @modelcontextprotocol/inspector

Configura la connessione

  1. Nell'interfaccia MCP Inspector, inserite l'URL dell'endpoint del server MCP.

  2. Aggiungi un'intestazione di autorizzazione con il tuo token di accesso.

  3. Fate clic su Connect per stabilire la connessione.

Schermata di configurazione MCP Inspector

Invoca strumenti

Una volta connesso, puoi testare gli strumenti MCP disponibili:

  1. Sfoglia l'elenco degli strumenti disponibili nel pannello di sinistra.

  2. Seleziona uno strumento (ad esempio,list_scenarios).

  3. Fornite tutti i parametri richiesti.

  4. Fate clic su Invoke per eseguire lo strumento e visualizzare la risposta.

MCP Inspector che mostra gli strumenti disponibili e la chiamata

Fase 3: Configurazione dei client di sviluppo AI

Dopo aver verificato la connessione al server MCP con MCP Inspector, puoi configurare il tuo client di sviluppo AI preferito.

CLI di Amazon Q

La CLI di Amazon Q fornisce l'accesso da riga di comando allo sviluppo assistito dall'intelligenza artificiale con l'integrazione di server MCP.

Fasi di configurazione

  1. Modifica il file mcp.json di configurazione. Per ulteriori informazioni sulla posizione dei file di configurazione, consulta la sezione Configurazione dei server MCP remoti nella Amazon Q Developer User Guide.

  2. Aggiungi la configurazione del tuo server DLT MCP:

    { "mcpServers": { "dlt-mcp": { "type": "http", "url": "https://[api-id].execute-api.[region].amazonaws.com/[stage]/gateway/backend-agent/sse/mcp", "headers": { "Authorization": "your_access_token_here" } } } }

Verifica la configurazione

  1. In un terminale, digita q per avviare Amazon Q CLI.

  2. Digita /mcp per vedere tutti i server MCP disponibili.

  3. Digita /tools per visualizzare gli strumenti disponibili forniti da dlt-mcp e altri server MCP configurati.

  4. Verifica che l'inizializzazione sia dlt-mcp avvenuta correttamente.

Cline

Cline è un assistente di codifica AI che supporta l'integrazione del server MCP.

Fasi di configurazione

  1. In Cline, vai a Gestisci server MCP > Configura > Configura server MCP.

  2. Aggiorna il file: cline_mcp_settings.json

    { "mcpServers": { "dlt-mcp": { "type": "streamableHttp", "url": "https://[api-id].execute-api.[region].amazonaws.com/[stage]/gateway/backend-agent/sse/mcp", "headers": { "Authorization": "your_access_token_here" } } } }
  3. Salva il file di configurazione.

  4. Riavvia Cline per applicare le modifiche.

Amazon Q Suite

Amazon Q Suite offre una piattaforma di assistenza AI completa con supporto per le azioni del server MCP.

Prerequisiti

Prima di configurare il server MCP in Amazon Q Suite, devi recuperare OAuth le credenziali dal pool di utenti Cognito della distribuzione DLT:

  1. Accedi alla CloudFormation console AWS.

  2. Seleziona lo stack Distributed Load Testing.

  3. Nella scheda Output, individua e copia l'ID del pool di utenti Cognito associato alla distribuzione DLT.

    Pool di utenti DLT CloudFormation Cognito
  4. Passa alla console di Amazon Cognito.

  5. Seleziona il pool di utenti utilizzando l'ID del pool di utenti dagli CloudFormation output.

  6. Nella barra di navigazione a sinistra, seleziona App integration > App client.

    ID client e segreto di Cognito
  7. Individua il client dell'app con il nome che termina con m2m (machine-to-machine).

  8. Copia l'ID client e il segreto del cliente.

  9. Ottieni il dominio del pool di utenti dalla scheda Dominio.

    ID client e segreto di Cognito
  10. Costruisci l'URL dell'endpoint del token aggiungendolo /oauth2/token alla fine del dominio.

Fasi di configurazione

  1. In Amazon Q Suite, crea un nuovo agente o seleziona un agente esistente.

  2. Aggiungi un prompt all'agente che descrive come interagire con il server DLT MCP.

  3. Aggiungi una nuova azione e seleziona l'azione del server MCP.

    QuickSuite Azioni dell'agente
    QuickSuite Strumento server MCP
  4. Configura i dettagli del server MCP:

    • URL del server MCP: l'endpoint DLT MCP

      QuickSuite Configurazione del dominio MCP Tool
    • Tipo di autenticazione: autenticazione basata sui servizi

    • Token Endpoint: l'URL dell'endpoint del token Cognito

    • ID client: l'ID client del client dell'app m2m

    • Client Secret: il client secret del client dell'app m2m

      QuickSuite Autenticazione dell'agente MCP Tool
  5. Salva la configurazione dell'azione del server MCP.

  6. Aggiungi la nuova azione del server MCP al tuo agente.

Avvia e testa l'agente

  1. Avvia l'agente in Amazon Q Suite.

  2. Inizia una conversazione con l'agente utilizzando istruzioni in linguaggio naturale.

  3. L'agente utilizzerà gli strumenti MCP per recuperare e analizzare i dati dei test di carico.

Prompt di esempio

Gli esempi seguenti mostrano come interagire con l'assistente AI per analizzare i dati dei test di carico tramite l'interfaccia MCP. Personalizza il test IDs, gli intervalli di date e i criteri per soddisfare le tue esigenze di test specifiche.

Per informazioni dettagliate sugli strumenti MCP disponibili e sui relativi parametri, fate riferimento alle specifiche degli strumenti MCP nella Developer Guide.

Semplice interrogazione dei risultati dei test

L'interazione del linguaggio naturale con il server MCP può essere tanto semplice quanto Show me the load tests that have completed in the last 24 hours with their associated completion status più descrittiva, ad esempio

Use list_scenarios to find my load tests. Then use get_latest_test_run to show me the basic execution data and performance metrics for the most recent test. If the results look concerning, also get the detailed performance metrics using get_test_run.

Analisi interattiva delle prestazioni con divulgazione progressiva

I need to analyze my load test performance, but I'm not sure which specific tests to focus on. Please help me by: 1. First, use list_scenarios to show me available test scenarios 2. Ask me which tests I want to analyze based on the list you show me 3. For my selected tests, use list_test_runs to get the test run history 4. Then use get_test_run with the test_run_id to get detailed response times, throughput, and error rates 5. If I want to compare tests, use get_baseline_test_run to compare against the baseline 6. If there are any issues, use get_test_run_artifacts to help me understand what went wrong Please guide me through this step by step, asking for clarification whenever you need more specific information.

Convalida della prontezza di produzione

Help me validate if my API is ready for production deployment: 1. Use list_scenarios to find recent test scenarios 2. For the most recent test scenario, use get_latest_test_run to get basic execution data 3. Use get_test_run with that test_run_id to get detailed response times, error rates, and throughput 4. Use get_scenario_details with the test_id to show me what load patterns and endpoints were tested 5. If I have a baseline, use get_baseline_test_run to compare current results with the baseline 6. Provide a clear go/no-go recommendation based on the performance data 7. If there are any concerns, use get_test_run_artifacts to help identify potential issues My SLA requirements are: response time under [X]ms, error rate under [Y]%.

Analisi dell'andamento delle prestazioni

Analyze the performance trend for my load tests over the past [TIME_PERIOD]: 1. Use list_scenarios to get all test scenarios 2. For each scenario, use list_test_runs with start_date and end_date to get tests from that period 3. Use get_test_run for the key test runs to get detailed metrics 4. Use get_baseline_test_run to compare against the baseline 5. Identify any significant changes in response times, error rates, or throughput 6. If you detect performance degradation, use get_test_run_artifacts on the problematic tests to help identify causes 7. Present the trend analysis in a clear format showing whether performance is improving, stable, or degrading Focus on completed tests and limit results to [N] tests if there are too many.

Risoluzione dei problemi dei test falliti

Help me troubleshoot my failed load tests: 1. Use list_scenarios to find test scenarios 2. For each scenario, use list_test_runs to find recent test runs 3. Use get_test_run with the test_run_id to get the basic execution data and failure information 4. Use get_test_run_artifacts to get detailed error messages and logs 5. Use get_scenario_details to understand what was being tested when it failed 6. If I have a similar test that passed, use get_baseline_test_run to identify differences 7. Summarize the causes of failure and suggest next steps for resolution Show me the most recent [N] failed tests from the past [TIME_PERIOD].