Les traductions sont fournies par des outils de traduction automatique. En cas de conflit entre le contenu d'une traduction et celui de la version originale en anglais, la version anglaise prévaudra.
Ajouter ou mettre à jour DAGs
Les graphes acycliques dirigés (DAGs) sont définis dans un fichier Python qui définit la structure du DAG sous forme de code. Vous pouvez utiliser la AWS CLI console Amazon S3 ou la console Amazon S3 pour effectuer le téléchargement DAGs dans votre environnement. Cette rubrique décrit les étapes pour ajouter ou mettre à jour Apache Airflow DAGs dans votre environnement Amazon Managed Workflows for Apache Airflow à l'aide du dags
dossier de votre compartiment Amazon S3.
Sections
Prérequis
Vous aurez besoin des éléments suivants avant de pouvoir effectuer les étapes indiquées sur cette page.
-
Autorisations — Votre AWS compte doit avoir été autorisé par votre administrateur à accéder à la politique de contrôle MWAAFull ConsoleAccess d'accès Amazon pour votre environnement. En outre, votre environnement Amazon MWAA doit être autorisé par votre rôle d'exécution à accéder aux AWS ressources utilisées par votre environnement.
-
Accès : si vous devez accéder à des référentiels publics pour installer des dépendances directement sur le serveur Web, votre environnement doit être configuré avec un accès au serveur Web du réseau public. Pour de plus amples informations, veuillez consulter Modes d'accès à Apache Airflow.
-
Configuration Amazon S3 — Le compartiment Amazon S3 utilisé pour stocker vos DAGs plugins personnalisés et vos dépendances Python
requirements.txt
doit être configuré avec l'accès public bloqué et le versionnage activé.plugins.zip
Fonctionnement
Un graphe acyclique dirigé (DAG) est défini dans un seul fichier Python qui définit la structure du DAG sous forme de code. Il comprend les éléments suivants :
-
Une définition du DAG
. -
Opérateurs
qui décrivent comment exécuter le DAG et les tâches à exécuter. -
Relations entre les opérateurs
qui décrivent l'ordre dans lequel les tâches doivent être exécutées.
Pour exécuter une plateforme Apache Airflow dans un environnement Amazon MWAA, vous devez copier la définition de votre DAG dans le dags
dossier de votre bucket de stockage. Par exemple, le dossier DAG de votre bucket de stockage peut ressembler à ceci :
Exemple dossier DAG
dags/ └ dag_def.py
Amazon MWAA synchronise automatiquement les objets nouveaux et modifiés de votre compartiment Amazon S3 avec le planificateur Amazon MWAA et le /usr/local/airflow/dags
dossier des conteneurs de travail toutes les 30 secondes, préservant ainsi la hiérarchie des fichiers de la source Amazon S3, quel que soit le type de fichier. L'heure à laquelle la nouvelle DAGs prise apparaît dans votre interface utilisateur Apache Airflow est contrôlée parscheduler.dag_dir_list_interval
. Les modifications apportées à l'existant DAGs seront prises en compte lors de la prochaine boucle de traitement DAG.
Note
Il n'est pas nécessaire d'inclure le fichier airflow.cfg
de configuration dans votre dossier DAG. Vous pouvez remplacer les configurations par défaut d'Apache Airflow depuis la console Amazon MWAA. Pour de plus amples informations, veuillez consulter Utilisation des options de configuration d'Apache Airflow sur Amazon MWAA.
Ce qui a changé dans la version 2
-
Nouveau : opérateurs, crochets et exécuteurs. Les instructions d'importation de votre DAGs MWAA et les plugins personnalisés que vous spécifiez dans un plug-in
plugins.zip
sur Amazon ont changé entre Apache Airflow v1 et Apache Airflow v2. Par exemple,from airflow.contrib.hooks.aws_hook import AwsHook
dans Apache Airflow v1, il a été remplacé par Apache Airflow v2.from airflow.providers.amazon.aws.hooks.base_aws import AwsBaseHook
Pour en savoir plus, consultez le manuel de référence de l'API Pythondans le guide de référence d'Apache Airflow.
Tests DAGs à l'aide de l'utilitaire Amazon MWAA CLI
-
L'utilitaire d'interface de ligne de commande (CLI) reproduit localement un environnement Amazon Managed Workflows pour Apache Airflow.
-
La CLI crée localement une image de conteneur Docker similaire à une image de production Amazon MWAA. Cela vous permet d'exécuter un environnement Apache Airflow local pour développer et tester DAGs des plugins personnalisés et des dépendances avant le déploiement sur Amazon MWAA.
-
Pour exécuter la CLI, reportez-vous à la section aws-mwaa-local-runner
on GitHub.
Téléchargement du code DAG sur Amazon S3
Vous pouvez utiliser la console Amazon S3 ou le AWS Command Line Interface (AWS CLI) pour télécharger le code DAG dans votre compartiment Amazon S3. Les étapes suivantes supposent que vous téléchargez du code (.py
) dans un dossier nommé dags
dans votre compartiment Amazon S3.
En utilisant le AWS CLI
The AWS Command Line Interface (AWS CLI) est un outil open source qui vous permet d'interagir avec les AWS services à l'aide de commandes dans votre shell de ligne de commande. Pour effectuer les étapes indiquées sur cette page, vous avez besoin des éléments suivants :
Pour effectuer un téléchargement à l'aide du AWS CLI
-
Utilisez la commande suivante pour répertorier tous vos compartiments Amazon S3.
aws s3 ls
-
Utilisez la commande suivante pour répertorier les fichiers et les dossiers du compartiment Amazon S3 de votre environnement.
aws s3 ls s3://
YOUR_S3_BUCKET_NAME
-
La commande suivante télécharge un
dag_def.py
fichierdags
dans un dossier.aws s3 cp dag_def.py s3://
YOUR_S3_BUCKET_NAME
/dags/Si aucun dossier nommé
dags
n'existe déjà dans votre compartiment Amazon S3, cette commande crée ledags
dossier et télécharge le fichier nommédag_def.py
dans le nouveau dossier.
Utilisation de la console Amazon S3
La console Amazon S3 est une interface utilisateur Web qui vous permet de créer et de gérer les ressources de votre compartiment Amazon S3. Les étapes suivantes supposent que vous avez un DAGs dossier nommédags
.
Pour charger à l'aide de la console Amazon S3
-
Ouvrez la page Environnements
sur la console Amazon MWAA. -
Choisissez un environnement.
-
Sélectionnez le lien du compartiment S3 dans le code DAG du volet S3 pour ouvrir votre compartiment de stockage sur la console Amazon S3.
-
Choisissez le dossier
dags
. -
Choisissez Charger.
-
Choisissez Ajouter un fichier.
-
Sélectionnez la copie locale de votre fichier
dag_def.py
, puis choisissez Upload.
Spécifier le chemin d'accès à votre DAGs dossier sur la console Amazon MWAA (pour la première fois)
Les étapes suivantes supposent que vous spécifiez le chemin d'accès à un dossier nommé dans votre compartiment Amazon S3dags
.
-
Ouvrez la page Environnements
sur la console Amazon MWAA. -
Choisissez l'environnement dans lequel vous souhaitez exécuter DAGs.
-
Choisissez Modifier.
-
Dans le code DAG dans le volet Amazon S3, choisissez Browse S3 à côté du champ du dossier DAG.
-
Sélectionnez votre
dags
dossier. -
Choisissez Choisir.
-
Choisissez Suivant, Mettre à jour l'environnement.
Affichage des modifications sur votre interface utilisateur Apache Airflow
Connexion à Apache Airflow
Vous devez Politique d'accès à l'interface utilisateur d'Apache Airflow : Amazon MWAAWeb ServerAccess disposer d'autorisations pour accéder à votre AWS compte dans AWS Identity and Access Management (IAM) pour accéder à votre interface utilisateur Apache Airflow.
Pour accéder à votre interface utilisateur Apache Airflow
-
Ouvrez la page Environnements
sur la console Amazon MWAA. -
Choisissez un environnement.
-
Choisissez Open Airflow UI.
Quelle est la prochaine étape ?
-
Testez vos DAGs plugins personnalisés et vos dépendances Python localement à l'aide de l'option aws-mwaa-local-runner
on GitHub.