Lavorare con l'intelligenza artificiale e LLMs - Servizio di posizione Amazon

Le traduzioni sono generate tramite traduzione automatica. In caso di conflitto tra il contenuto di una traduzione e la versione originale in Inglese, quest'ultima prevarrà.

Lavorare con l'intelligenza artificiale e LLMs

L'intelligenza artificiale LLMs può accelerare in modo significativo lo sviluppo con Amazon Location Service fornendo assistenza intelligente per l'utilizzo delle API, la generazione di codice e la risoluzione dei problemi. Configurando il tuo client LLM con i server MCP e il contesto corretti, puoi creare un potente assistente allo sviluppo in grado di comprendere i servizi AWS e le specifiche di Amazon Location Service. Utilizzando un contesto minimo e una configurazione MCP, come consigliato in questa pagina, è possibile garantire che il modello LLM scelto disponga di un contesto sufficiente per portare a risultati corretti senza sovraccaricare la finestra di contesto. Ciò può ridurre le allucinazioni e aumentare la precisione dei risultati. Questa configurazione garantisce inoltre che l'interruzione della conoscenza del modello non influisca sulla qualità dei risultati.

Server MCP consigliati

I server Model Context Protocol (MCP) estendono le funzionalità LLM fornendo accesso a strumenti esterni, documentazione e. APIs Sebbene questi server MCP non siano necessari, possono aiutare l'LLM a cercare ulteriori informazioni sul servizio e consentirti di rimanere aggiornato sulle ultime linee guida per gli sviluppatori di Amazon Location Service. Per lo sviluppo di Amazon Location Service, sono consigliati i seguenti server MCP:

  • aws-knowledge-mcp-server- Accesso alla AWS documentazione, ai riferimenti API, alle best practice e alle knowledge base. Non richiede AWS credenziali o autenticazione, il che lo rende ideale per la ricerca di documentazione senza gestione delle credenziali.

  • aws-api-mcp-server- Interazioni AWS API dirette ed esecuzione di comandi CLI. Richiede AWS credenziali.

Configurazione del client

Configura il tuo client LLM con i server MCP utilizzando il formato di configurazione appropriato per il tuo client.

Kiro

Installazione con un clic:

Configurazione manuale:

Aggiungi quanto segue alla configurazione del tuo agente Kiro. Per ulteriori informazioni sulla configurazione di Kiro, consulta la documentazione di Kiro.

{ "mcpServers": { "aws-knowledge-mcp-server": { "url": "https://knowledge-mcp.global.api.aws", "type": "http" }, "aws-api-mcp-server": { "command": "uvx", "args": ["awslabs.aws-api-mcp-server@latest"], "env": { "AWS_REGION": "us-east-1", "READ_OPERATIONS_ONLY": "true" } } } }
VSCode with Copilot

Installazione con un clic:

Configurazione manuale:

Aggiungi quanto segue al tuo file VSCode mcp.json. Per ulteriori informazioni sui server MCP in VS Code, consulta la documentazione. VSCode

{ "servers": { "aws-knowledge-mcp-server": { "type": "http", "url": "https://knowledge-mcp.global.api.aws" }, "aws-api-mcp-server": { "command": "uvx", "args": ["awslabs.aws-api-mcp-server@latest"], "env": { "AWS_REGION": "us-east-1", "READ_OPERATIONS_ONLY": "true" } } } }
VSCode with Cline

Configurazione manuale:

Aggiungi quanto segue al file delle impostazioni di Cline MCP (cline_mcp_settings.json). Per ulteriori informazioni sulla configurazione di Cline MCP, consulta la documentazione di Cline.

{ "mcpServers": { "aws-knowledge-mcp-server": { "type": "streamableHttp", "url": "https://knowledge-mcp.global.api.aws" }, "aws-api-mcp-server": { "type": "stdio", "command": "uvx", "args": ["awslabs.aws-api-mcp-server@latest"], "env": { "AWS_REGION": "us-east-1", "READ_OPERATIONS_ONLY": "true" } } } }
Cursor

Configurazione manuale:

Aggiungi quanto segue al tuo file Cursor mcp.json. Per ulteriori informazioni sulla configurazione del Cursor MCP, consultate la documentazione del cursore.

{ "mcpServers": { "aws-knowledge-mcp-server": { "url": "https://knowledge-mcp.global.api.aws" }, "aws-api-mcp-server": { "command": "uvx", "args": ["awslabs.aws-api-mcp-server@latest"], "env": { "AWS_REGION": "us-east-1", "READ_OPERATIONS_ONLY": "true" } } } }
Claude Code

Configurazione manuale:

Aggiungi server MCP utilizzando i comandi CLI di Claude. Per ulteriori informazioni sulla configurazione di Claude Code MCP, consultate la documentazione di Claude Code.

# Add AWS Knowledge MCP Server (HTTP) claude mcp add --transport http aws-knowledge-mcp-server https://knowledge-mcp.global.api.aws # Add AWS API MCP Server (stdio) claude mcp add --transport stdio aws-api-mcp-server -- uvx awslabs.aws-api-mcp-server@latest
Gemini Code Assist

Configurazione manuale:

Aggiungi quanto segue al file JSON delle impostazioni Gemini (~/.gemini/settings.json). Per ulteriori informazioni sulla configurazione MCP di Gemini Code Assist, consulta la documentazione di Google Cloud.

{ "mcpServers": { "aws-knowledge-mcp-server": { "httpUrl": "https://knowledge-mcp.global.api.aws" }, "aws-api-mcp-server": { "command": "uvx", "args": ["awslabs.aws-api-mcp-server@latest"], "env": { "AWS_REGION": "us-east-1", "READ_OPERATIONS_ONLY": "true" } } } }

Contesto utile

Quando si lavora con l'intelligenza artificiale e LLMs su progetti Amazon Location Service, fornire un contesto specifico può aiutare a guidare l'IA verso soluzioni migliori. Miglioriamo continuamente la documentazione e le guide pubblicate per orientarci meglio LLMs verso le migliori pratiche attuali, ma ospitiamo e gestiamo una serie di contesti utili che possono essere utili mentre la formazione dei modelli si sta aggiornando con le ultime versioni di Amazon Location Service.

Esiste un file Agents.md gestito che fornisce un contesto utile minimo per lavorare con Amazon Location.

Per utilizzare questo file di contesto, devi prima scaricarlo localmente:

curl -o path/to/AGENTS.md https://raw.githubusercontent.com/aws-geospatial/amazon-location-docs-resources/main/developer-tools/ai-and-llms/AGENTS.md

Quindi configura il tuo client LLM per utilizzare il file scaricato:

Kiro

Aggiungi il file locale alla configurazione del tuo agente:

{ "resources": [ "file://path/to/AGENTS.md" ] }
VSCode with Copilot

Posiziona il file Agents.md scaricato nella radice del tuo spazio di lavoro. VSCode applicherà automaticamente le istruzioni a tutte le richieste di chat. Per abilitare questa funzione, assicurati la chat. useAgentsMdL'impostazione del file è abilitata. Per ulteriori informazioni, consulta le istruzioni personalizzate nella VSCode documentazione.

VSCode with Cline

Inserisci il file Agents.md scaricato nella cartella principale del progetto o usa @ mentions per farvi riferimento nelle conversazioni. Cline scoprirà automaticamente i file di progetto e potrai fare riferimento al contesto utilizzandolo nelle tue istruzioni. @AGENTS.md Per ulteriori informazioni sulla gestione del contesto, consulta la documentazione di Cline.

Cursor

Usa @ mentions per fare riferimento al file Agents.md scaricato nelle tue conversazioni. Puoi fare riferimento ai file utilizzando @Files & Folders e poi cercare il file Agents.md oppure trascinare il file direttamente nella chat. Per ulteriori informazioni su @ mentions, consulta la documentazione del cursore.

Claude Code

Aggiungi il file Agents.md scaricato alla directory del tuo progetto. Puoi includerlo nel file Claude.md del tuo progetto o farvi riferimento direttamente nella sessione corrente. Per ulteriori informazioni sulla configurazione di Claude Code MCP, consultate la documentazione di Claude Code.

Gemini Code Assist

Crea un file Gemini.md nella cartella principale del progetto o ~/.gemini/Gemini.md per il contesto globale e includi il contenuto del file Agents.md scaricato. Per ulteriori informazioni sui file di contesto, consulta la documentazione di Google Cloud.

Configurazione dell'agente Kiro

Per gli utenti di Kiro, ecco un file completo di configurazione dell'agente che include sia i server MCP consigliati che il file contestuale di Amazon Location Service:

{ "name": "amazon-location-agent", "description": "Agent configured for Amazon Location Service development", "prompt": null, "mcpServers": { "aws-knowledge-mcp-server": { "url": "https://knowledge-mcp.global.api.aws", "type": "http" }, "aws-api-mcp-server": { "command": "uvx", "args": ["awslabs.aws-api-mcp-server@latest"], "env": { "AWS_REGION": "us-east-1", "READ_OPERATIONS_ONLY": "true" } } }, "tools": [ "@builtin", "@aws-knowledge-mcp-server/aws___read_documentation", "@aws-knowledge-mcp-server/aws___recommend", "@aws-knowledge-mcp-server/aws___search_documentation", "@aws-api-mcp-server/aws___call_aws", "@aws-api-mcp-server/aws___suggest_aws_commands" ], "allowedTools": [ "web_fetch", "web_search", "fs_read", "@aws-knowledge-mcp-server/aws___read_documentation", "@aws-knowledge-mcp-server/aws___recommend", "@aws-knowledge-mcp-server/aws___search_documentation", "@aws-api-mcp-server/aws___suggest_aws_commands" ], "resources": [ "file://path/to/amazon-location-docs-resources/developer-tools/ai-and-llms/AGENTS.md" ], "includeMcpJson": false }