Les traductions sont fournies par des outils de traduction automatique. En cas de conflit entre le contenu d'une traduction et celui de la version originale en anglais, la version anglaise prévaudra.
Travailler avec l'IA et LLMs
L'IA LLMs peut accélérer considérablement le développement avec Amazon Location Service en fournissant une assistance intelligente pour l'utilisation des API, la génération de code et le dépannage. En configurant votre client LLM avec les serveurs et le contexte MCP appropriés, vous pouvez créer un puissant assistant de développement qui comprend les AWS services et les spécificités d'Amazon Location Service. L'utilisation d'un contexte minimal et d'une configuration MCP, comme recommandé sur cette page, peut garantir que le modèle LLM de votre choix dispose d'un contexte suffisant pour obtenir des résultats corrects sans surcharger la fenêtre de contexte. Cela peut réduire les hallucinations et augmenter la précision des résultats. Cette configuration garantit également que la coupure des connaissances du modèle n'a pas d'impact sur la qualité des résultats.
Serveurs MCP recommandés
Les serveurs MCP (Model Context Protocol) étendent les fonctionnalités LLM en fournissant un accès à des outils externes, à de la documentation et. APIs Bien que ces serveurs MCP ne soient pas nécessaires, ils peuvent aider le LLM à rechercher des informations supplémentaires sur le service et à vous tenir au courant des derniers conseils destinés aux développeurs d'Amazon Location Service. Pour le développement d'Amazon Location Service, les serveurs MCP suivants sont recommandés :
-
aws-knowledge-mcp-server- Accès à AWS la documentation, aux références d'API, aux meilleures pratiques et aux bases de connaissances. Ne nécessite pas AWS d'informations d'identification ni d'authentification, ce qui le rend idéal pour la recherche de documentation sans gestion des informations d'identification.
-
aws-api-mcp-server- Interactions directes avec AWS l'API et exécution des commandes CLI. Exige des AWS informations d'identification.
Configuration de client
Configurez votre client LLM avec les serveurs MCP en utilisant le format de configuration approprié pour votre client.
- Kiro
-
Installation en un clic :
Configuration manuelle :
Ajoutez ce qui suit à la configuration de votre agent Kiro. Pour plus d'informations sur la configuration de Kiro, consultez la documentation de Kiro.
{
"mcpServers": {
"aws-knowledge-mcp-server": {
"url": "https://knowledge-mcp.global.api.aws",
"type": "http"
},
"aws-api-mcp-server": {
"command": "uvx",
"args": ["awslabs.aws-api-mcp-server@latest"],
"env": {
"AWS_REGION": "us-east-1",
"READ_OPERATIONS_ONLY": "true"
}
}
}
}
- VSCode with Copilot
-
Installation en un clic :
Configuration manuelle :
Ajoutez ce qui suit à votre fichier VSCode mcp.json. Pour plus d'informations sur les serveurs MCP dans VS Code, consultez la VSCode documentation.
{
"servers": {
"aws-knowledge-mcp-server": {
"type": "http",
"url": "https://knowledge-mcp.global.api.aws"
},
"aws-api-mcp-server": {
"command": "uvx",
"args": ["awslabs.aws-api-mcp-server@latest"],
"env": {
"AWS_REGION": "us-east-1",
"READ_OPERATIONS_ONLY": "true"
}
}
}
}
- VSCode with Cline
-
Configuration manuelle :
Ajoutez ce qui suit à votre fichier de paramètres Cline MCP (cline_mcp_settings.json). Pour plus d'informations sur la configuration de Cline MCP, consultez la documentation de Cline.
{
"mcpServers": {
"aws-knowledge-mcp-server": {
"type": "streamableHttp",
"url": "https://knowledge-mcp.global.api.aws"
},
"aws-api-mcp-server": {
"type": "stdio",
"command": "uvx",
"args": ["awslabs.aws-api-mcp-server@latest"],
"env": {
"AWS_REGION": "us-east-1",
"READ_OPERATIONS_ONLY": "true"
}
}
}
}
- Cursor
-
Configuration manuelle :
Ajoutez ce qui suit à votre fichier Cursor mcp.json. Pour plus d'informations sur la configuration de Cursor MCP, consultez la documentation de Cursor.
{
"mcpServers": {
"aws-knowledge-mcp-server": {
"url": "https://knowledge-mcp.global.api.aws"
},
"aws-api-mcp-server": {
"command": "uvx",
"args": ["awslabs.aws-api-mcp-server@latest"],
"env": {
"AWS_REGION": "us-east-1",
"READ_OPERATIONS_ONLY": "true"
}
}
}
}
- Claude Code
-
Configuration manuelle :
Ajoutez des serveurs MCP à l'aide des commandes de la CLI Claude. Pour plus d'informations sur la configuration de Claude Code MCP, consultez la documentation Claude Code.
# Add AWS Knowledge MCP Server (HTTP)
claude mcp add --transport http aws-knowledge-mcp-server https://knowledge-mcp.global.api.aws
# Add AWS API MCP Server (stdio)
claude mcp add --transport stdio aws-api-mcp-server -- uvx awslabs.aws-api-mcp-server@latest
- Gemini Code Assist
-
Configuration manuelle :
Ajoutez ce qui suit à votre fichier JSON de paramètres Gemini (~/.gemini/settings.json). Pour plus d'informations sur la configuration de Gemini Code Assist MCP, consultez la documentation de Google Cloud.
{
"mcpServers": {
"aws-knowledge-mcp-server": {
"httpUrl": "https://knowledge-mcp.global.api.aws"
},
"aws-api-mcp-server": {
"command": "uvx",
"args": ["awslabs.aws-api-mcp-server@latest"],
"env": {
"AWS_REGION": "us-east-1",
"READ_OPERATIONS_ONLY": "true"
}
}
}
}
Contexte utile
Lorsque vous travaillez avec l'IA et LLMs sur des projets Amazon Location Service, fournir un contexte spécifique peut aider à orienter l'IA vers de meilleures solutions. Nous améliorons continuellement notre documentation et nos guides publiés afin de mieux les orienter LLMs vers les meilleures pratiques actuelles, mais nous hébergeons et maintenons un ensemble de contextes utiles qui peuvent vous aider à adapter la formation des modèles aux dernières versions d'Amazon Location Service.
Un fichier Agents.md est maintenu afin de fournir un contexte utile minimal pour travailler avec Amazon Location.
Pour utiliser ce fichier de contexte, téléchargez-le d'abord localement :
curl -o path/to/AGENTS.md https://raw.githubusercontent.com/aws-geospatial/amazon-location-docs-resources/main/developer-tools/ai-and-llms/AGENTS.md
Configurez ensuite votre client LLM pour utiliser le fichier téléchargé :
- Kiro
-
Ajoutez le fichier local à la configuration de votre agent :
{
"resources": [
"file://path/to/AGENTS.md"
]
}
- VSCode with Copilot
-
Placez le fichier Agents.md téléchargé à la racine de votre espace de travail. VSCode appliquera automatiquement les instructions à toutes les demandes de chat. Pour activer cette fonctionnalité, assurez-vous que le chat est activé. useAgentsMdLe paramètre de fichier est activé. Pour plus d'informations, consultez les instructions personnalisées dans la VSCode documentation.
- VSCode with Cline
-
Placez le fichier Agents.md téléchargé à la racine de votre projet ou utilisez les mentions @ pour le référencer dans vos conversations. Cline découvrira automatiquement les fichiers du projet et vous pourrez référencer le contexte @AGENTS.md à l'aide de vos instructions. Pour plus d'informations sur la gestion du contexte, consultez la documentation de Cline.
- Cursor
-
Utilisez les mentions @ pour faire référence au fichier Agents.md téléchargé dans vos conversations. Vous pouvez référencer des fichiers à @Files & Folders l'aide du fichier Agents.md, puis le rechercher, ou le faire glisser directement dans le chat. Pour plus d'informations sur les mentions @, consultez la documentation de Cursor.
- Claude Code
-
Ajoutez le fichier Agents.md téléchargé dans le répertoire de votre projet. Vous pouvez l'inclure dans le fichier Claude.md de votre projet ou le référencer directement dans votre session en cours. Pour plus d'informations sur la configuration de Claude Code MCP, consultez la documentation Claude Code.
- Gemini Code Assist
-
Créez un fichier Gemini.md à la racine de votre projet ou dans le fichier ~/.gemini/gemini.md pour le contexte global, et incluez le contenu du fichier Agents.md téléchargé. Pour plus d'informations sur les fichiers de contexte, consultez la documentation de Google Cloud.
Configuration de l'agent Kiro
Pour les utilisateurs de Kiro, voici un fichier de configuration d'agent complet qui inclut à la fois les serveurs MCP recommandés et le fichier de contexte Amazon Location Service :
{
"name": "amazon-location-agent",
"description": "Agent configured for Amazon Location Service development",
"prompt": null,
"mcpServers": {
"aws-knowledge-mcp-server": {
"url": "https://knowledge-mcp.global.api.aws",
"type": "http"
},
"aws-api-mcp-server": {
"command": "uvx",
"args": ["awslabs.aws-api-mcp-server@latest"],
"env": {
"AWS_REGION": "us-east-1",
"READ_OPERATIONS_ONLY": "true"
}
}
},
"tools": [
"@builtin",
"@aws-knowledge-mcp-server/aws___read_documentation",
"@aws-knowledge-mcp-server/aws___recommend",
"@aws-knowledge-mcp-server/aws___search_documentation",
"@aws-api-mcp-server/aws___call_aws",
"@aws-api-mcp-server/aws___suggest_aws_commands"
],
"allowedTools": [
"web_fetch",
"web_search",
"fs_read",
"@aws-knowledge-mcp-server/aws___read_documentation",
"@aws-knowledge-mcp-server/aws___recommend",
"@aws-knowledge-mcp-server/aws___search_documentation",
"@aws-api-mcp-server/aws___suggest_aws_commands"
],
"resources": [
"file://path/to/amazon-location-docs-resources/developer-tools/ai-and-llms/AGENTS.md"
],
"includeMcpJson": false
}