Utilisation d'agents d'IA avec Deadline Cloud - Deadline Cloud

Les traductions sont fournies par des outils de traduction automatique. En cas de conflit entre le contenu d'une traduction et celui de la version originale en anglais, la version anglaise prévaudra.

Utilisation d'agents d'IA avec Deadline Cloud

Utilisez des agents d'intelligence artificielle pour rédiger des ensembles de tâches, développer des packages Conda et résoudre des problèmes de tâches dans Deadline Cloud. Cette rubrique explique ce que sont les agents IA, les points essentiels pour travailler efficacement avec eux et les ressources destinées à aider les agents à comprendre Deadline Cloud.

Un agent d'intelligence artificielle est un outil logiciel qui utilise un grand modèle de langage (LLM) pour effectuer des tâches de manière autonome. Les agents d'intelligence artificielle peuvent lire et écrire des fichiers, exécuter des commandes et modifier des solutions en fonction des commentaires. Les exemples incluent les outils de ligne de commande tels que Kiro et les assistants intégrés à l'IDE.

Points clés de la collaboration avec des agents de l'IA

Les points clés suivants vous aident à obtenir de meilleurs résultats lorsque vous utilisez des agents d'intelligence artificielle avec Deadline Cloud.

  • Fournir une base : les agents d'intelligence artificielle sont plus performants lorsqu'ils ont accès à la documentation, aux spécifications et aux exemples pertinents. Vous pouvez fournir une base en dirigeant l'agent vers des pages de documentation spécifiques, en partageant des exemples de code existants comme références, en clonant des référentiels open source pertinents dans l'espace de travail local et en fournissant de la documentation pour des applications tierces.

  • Spécifier les critères de succès : définissez le résultat attendu et les exigences techniques pour l'agent. Par exemple, lorsque vous demandez à un agent de développer un ensemble de tâches, spécifiez les entrées, les paramètres et les résultats attendus de la tâche. Si vous n'êtes pas sûr des spécifications, demandez d'abord à l'agent de proposer des options, puis d'affiner les exigences ensemble.

  • Activez une boucle de feedback : les agents d'IA itèrent plus efficacement lorsqu'ils peuvent tester leurs solutions et recevoir des commentaires. Au lieu de s'attendre à une solution efficace dès la première tentative, donnez à l'agent la possibilité d'exécuter sa solution et d'examiner les résultats. Cette approche fonctionne bien lorsque l'agent peut accéder aux mises à jour de statut, aux journaux et aux erreurs de validation. Par exemple, lorsque vous développez un ensemble de tâches, autorisez l'agent à soumettre la tâche et à consulter les journaux.

  • Attendez-vous à répéter : même dans un contexte favorable, les agents peuvent faire fausse route ou émettre des suppositions qui ne correspondent pas à votre environnement. Observez la façon dont l'agent aborde la tâche et donnez-lui des conseils tout au long du processus. Ajoutez le contexte manquant si l'agent a des difficultés, aidez à détecter les erreurs en pointant vers des fichiers journaux spécifiques, affinez les exigences au fur et à mesure que vous les découvrez et ajoutez des exigences négatives pour indiquer explicitement ce que l'agent doit éviter.

Ressources pour le contexte des agents

Les ressources suivantes aident les agents d'intelligence artificielle à comprendre les concepts de Deadline Cloud et à produire des résultats précis.

  • Serveur MCP (Deadline Cloud Model Context Protocol) : pour les agents qui prennent en charge le Model Context Protocol, le référentiel Deadline-Cloud contient le client Deadline Cloud, qui inclut un serveur MCP pour interagir avec les tâches.

  • AWSServeur MCP de documentation — Pour les agents qui prennent en charge le MCP, configurez le serveur MCP de AWS documentation pour donner à l'agent un accès direct à la AWS documentation, y compris le guide de l'utilisateur et le guide du développeur de Deadline Cloud.

  • Spécification Open Job Description — La spécification Open Job Description GitHub définit le schéma des modèles de tâches. Référez-vous à ce référentiel lorsque les agents ont besoin de comprendre la structure et la syntaxe des modèles de tâches.

  • deadline-cloud-samples— Le deadline-cloud-samplesréférentiel contient des exemples de lots de tâches, des recettes de conda et des CloudFormation modèles pour des applications et des cas d'utilisation courants.

  • organisation aws-deadline — GitHub L'organisation aws-deadline GitHub contient des plugins de référence pour de nombreuses applications tierces que vous pouvez utiliser comme exemples pour d'autres intégrations.

Exemple d'invite : rédaction d'un ensemble de tâches

L'exemple d'invite suivant montre comment utiliser un agent d'intelligence artificielle pour créer des ensembles de tâches qui entraînent un adaptateur LoRa (Low-Rank Adaptation) à la génération d'images d'IA. L'invite illustre les points clés évoqués précédemment : elle fournit une base en pointant vers les référentiels pertinents, définit les critères de réussite pour les résultats des lots de tâches et décrit une boucle de rétroaction pour le développement itératif.

Write a pair of job bundles for Deadline Cloud that use the diffusers Python library to train a LoRA adapter on a set of images and then generate images from it. Requirements: - The training job takes a set of JPEG images as input, uses an image description, LoRA rank, learning rate, batch size, and number of training steps as parameters, and outputs a `.safetensors` file. - The generation job takes the `.safetensors` file as input and the number of images to generate, then outputs JPEG images. The jobs use Stable Diffusion 1.5 as the base model. - The jobs run `diffusers` as a Python script. Install the necessary packages using conda by setting the job parameters: - `CondaChannels`: `conda-forge` - `CondaPackages`: list of conda packages to install For context, clone the following repositories to your workspace and review their documentation and code: - OpenJobDescription specification: https://github.com/OpenJobDescription/openjd-specifications/blob/mainline/wiki/2023-09-Template-Schemas.md - Deadline Cloud sample job bundles: https://github.com/aws-deadline/deadline-cloud-samples/tree/mainline/job_bundles - diffusers library: https://github.com/huggingface/diffusers Read through the provided context before you start. To develop a job bundle, iterate with the following steps until the submitted job succeeds. If a step fails, update the job bundle and restart the loop: 1. Create a job bundle. 2. Validate the job template syntax: `openjd check` 3. Submit the job to Deadline Cloud: `deadline bundle submit` 4. Wait for the job to complete: `deadline job wait` 5. View the job status and logs: `deadline job logs` 6. Download the job output: `deadline job download-output` To verify the training and generation jobs work together, iterate with the following steps until the generation job produces images that resemble the dog in the training data: 1. Develop and submit a training job using the training images in `./exdog` 2. Wait for the job to succeed then download its output. 3. Develop and submit a generation job using the LoRA adapter from the training job. 4. Wait for the job to succeed then download its output. 5. Inspect the generated images. If they resemble the dog in the training data, you're done. Otherwise, review the job template, job parameters, and job logs to identify and fix the issue.