

Die vorliegende Übersetzung wurde maschinell erstellt. Im Falle eines Konflikts oder eines Widerspruchs zwischen dieser übersetzten Fassung und der englischen Fassung (einschließlich infolge von Verzögerungen bei der Übersetzung) ist die englische Fassung maßgeblich.

# Hinzufügen oder Aktualisieren DAGs
<a name="configuring-dag-folder"></a>

Direkte azyklische Graphen (DAGs) werden in einer Python-Datei definiert, die die Struktur der DAG als Code definiert. Sie können die AWS CLI oder die Amazon S3 S3-Konsole verwenden, um DAGs in Ihre Umgebung hochzuladen. In diesem Thema werden die Schritte zum Hinzufügen oder Aktualisieren von Apache Airflow in Ihrer DAGs Amazon Managed Workflows for Apache Airflow Airflow-Umgebung mithilfe des `dags` Ordners in Ihrem Amazon S3 S3-Bucket beschrieben.

**Topics**
+ [Voraussetzungen](#configuring-dag-folder-prereqs)
+ [Funktionsweise](#configuring-dag-folder-how)
+ [Was hat sich geändert?](#configuring-dag-folder-changed)
+ [Testen DAGs mit dem Amazon MWAA CLI Utility](#working-dag-folder-cli-utility)
+ [DAG-Code auf Amazon S3 hochladen](#configuring-dag-folder-uploading)
+ [Den Pfad zu Ihrem DAGs Ordner auf der Amazon MWAA-Konsole angeben (beim ersten Mal)](#configuring-dag-folder-mwaaconsole)
+ [Zugreifen auf Änderungen in Ihrer Apache Airflow Airflow-Benutzeroberfläche](#configuring-dag-folder-mwaaconsole-view)
+ [Als nächstes](#configuring-dag-folder-next-up)

## Voraussetzungen
<a name="configuring-dag-folder-prereqs"></a>

Sie benötigen Folgendes, bevor Sie die Schritte auf dieser Seite abschließen können.
+ **Berechtigungen** — Ihr Administrator AWS-Konto muss Ihnen Zugriff auf die [MWAAFullConsoleAccessAmazon-Zugriffskontrollrichtlinie](access-policies.md#console-full-access) für Ihre Umgebung gewährt haben. Darüber hinaus muss Ihrer Amazon MWAA-Umgebung von Ihrer [Ausführungsrolle](mwaa-create-role.md) der Zugriff auf die von Ihrer Umgebung verwendeten AWS Ressourcen gestattet werden.
+ **Zugriff** — Wenn Sie Zugriff auf öffentliche Repositorys benötigen, um Abhängigkeiten direkt auf dem Webserver zu installieren, muss Ihre Umgebung für den Zugriff auf **öffentliche** Netzwerk-Webserver konfiguriert sein. Weitere Informationen finden Sie unter [Apache-Airflow-Zugriffsmodi](configuring-networking.md).
+ **Amazon S3 S3-Konfiguration** — Der [Amazon S3 S3-Bucket](mwaa-s3-bucket.md) DAGs, in dem Ihre benutzerdefinierten Plugins und Python-Abhängigkeiten gespeichert werden`plugins.zip`, `requirements.txt` muss mit *geblocktem öffentlichem Zugriff* und *aktivierter Versionierung* konfiguriert sein.

## Funktionsweise
<a name="configuring-dag-folder-how"></a>

Ein Directed Acyclic Graph (DAG) ist in einer einzigen Python-Datei definiert, die die Struktur der DAG als Code definiert. Er besteht aus den folgenden Komponenten:
+ Eine [DAG-Definition](https://airflow.apache.org/docs/stable/concepts.html#dags).
+ [Operatoren](https://airflow.apache.org/concepts.html#operators), die beschreiben, wie die DAG ausgeführt wird und welche [Aufgaben](https://airflow.apache.org/docs/stable/concepts.html#tasks) ausgeführt werden sollen.
+ [Operatorbeziehungen](https://airflow.apache.org/concepts.html#bitshift-composition), die die Reihenfolge beschreiben, in der die Aufgaben ausgeführt werden.

Um eine Apache Airflow-Plattform in einer Amazon MWAA-Umgebung auszuführen, müssen Sie Ihre DAG-Definition in den `dags` Ordner in Ihrem Speicher-Bucket kopieren. Der DAG-Ordner in Ihrem Speicher-Bucket sollte beispielsweise wie folgt aussehen:

**Example DAG-Ordner**  

```
dags/
└ dag_def.py
```

Amazon MWAA synchronisiert automatisch alle 30 Sekunden neue und geänderte Objekte aus Ihrem Amazon S3 S3-Bucket mit dem Amazon MWAA-Scheduler und dem `/usr/local/airflow/dags` Ordner der Worker-Container, wobei die Dateihierarchie der Amazon S3 S3-Quelle unabhängig vom Dateityp beibehalten wird. Die Zeit, die benötigt wird, DAGs um in Ihrer Apache Airflow Airflow-Benutzeroberfläche aufgeführt zu werden, wird von `scheduler.dag\$1dir\$1list\$1interval` gesteuert. Änderungen an bestehenden Daten DAGs werden in der nächsten [DAG-Verarbeitungsschleife](best-practices-tuning.md#best-practices-tuning-scheduler) übernommen.

**Anmerkung**  
Sie müssen die `airflow.cfg` Konfigurationsdatei nicht in Ihren DAG-Ordner aufnehmen. Sie können die Standardkonfigurationen von Apache Airflow von der Amazon MWAA-Konsole aus überschreiben. Weitere Informationen finden Sie unter [Verwenden der Apache Airflow Airflow-Konfigurationsoptionen auf Amazon MWAA](configuring-env-variables.md).

## Was hat sich geändert?
<a name="configuring-dag-folder-changed"></a>

Informationen zu den Änderungen für eine bestimmte Apache Airflow Airflow-Version finden Sie auf der Seite mit den [Versionshinweisen](https://airflow.apache.org/docs/apache-airflow/stable/release_notes.html#release-notes).
+ Apache Airflow v3-Konfigurationen: [Konfigurationsreferenz](https://airflow.apache.org/docs/apache-airflow/3.0.6/configurations-ref.html)
+ Informationen zur öffentlichen Schnittstelle von Apache Airflow v2: [Öffentliche Schnittstelle von](https://airflow.apache.org/docs/apache-airflow/2.10.3/public-airflow-interface.html) Airflow

## Testen DAGs mit dem Amazon MWAA CLI Utility
<a name="working-dag-folder-cli-utility"></a>
+ Das Befehlszeilenschnittstellenprogramm (CLI) repliziert eine Amazon Managed Workflows for Apache Airflow Airflow-Umgebung lokal.
+ Die CLI erstellt lokal ein Docker-Container-Image, das einem Amazon MWAA-Produktionsimage ähnelt. Sie können damit eine lokale Apache Airflow Airflow-Umgebung ausführen, um benutzerdefinierte Plugins und Abhängigkeiten zu entwickeln und zu testen DAGs, bevor Sie sie auf Amazon MWAA bereitstellen.
+ Informationen zum Ausführen der CLI finden Sie unter [aws-mwaa-docker-images](https://github.com/aws/amazon-mwaa-docker-images)on GitHub.

## DAG-Code auf Amazon S3 hochladen
<a name="configuring-dag-folder-uploading"></a>

Sie können die Amazon S3 S3-Konsole oder die AWS Command Line Interface (AWS CLI) verwenden, um den DAG-Code in Ihren Amazon S3 S3-Bucket hochzuladen. Bei den folgenden Schritten wird davon ausgegangen, dass Sie Code (`.py`) in einen Ordner hochladen, der `dags` in Ihrem Amazon S3 S3-Bucket benannt ist.

### Mit dem AWS CLI
<a name="configuring-dag-folder-cli"></a>

The AWS Command Line Interface (AWS CLI) ist ein Open-Source-Tool, mit dem Sie mithilfe von Befehlen in Ihrer Befehlszeilen-Shell mit AWS Diensten interagieren können. Um die Schritte auf dieser Seite abzuschließen, benötigen Sie Folgendes:
+ [AWS CLI — Installieren Sie Version 2.](https://docs.aws.amazon.com/cli/latest/userguide/install-cliv2.html)
+ [AWS CLI — Schnelle Konfiguration mit `aws configure`](https://docs.aws.amazon.com/cli/latest/userguide/cli-chap-configure.html).

**Zum Hochladen mit dem AWS CLI**

1. Verwenden Sie den folgenden Befehl, um alle Ihre Amazon S3 S3-Buckets aufzulisten.

   ```
   aws s3 ls
   ```

1. Verwenden Sie den folgenden Befehl, um die Dateien und Ordner im Amazon S3 S3-Bucket für Ihre Umgebung aufzulisten.

   ```
   aws s3 ls s3://YOUR_S3_BUCKET_NAME
   ```

1. Der folgende Befehl lädt eine `dag_def.py` Datei in einen `dags` Ordner hoch. 

   ```
   aws s3 cp dag_def.py s3://amzn-s3-demo-bucket/dags/
   ```

   Wenn ein Ordner mit dem Namen noch `dags` nicht in Ihrem Amazon S3 S3-Bucket existiert, erstellt dieser Befehl den `dags` Ordner und lädt die Datei mit dem Namen in `dag_def.py` den neuen Ordner hoch.

### Verwenden der Amazon S3-Konsole
<a name="configuring-dag-folder-console"></a>

Die Amazon S3 S3-Konsole ist eine webbasierte Benutzeroberfläche, mit der Sie die Ressourcen in Ihrem Amazon S3 S3-Bucket erstellen und verwalten können. Bei den folgenden Schritten wird davon ausgegangen, dass Sie einen DAGs Ordner mit dem Namen haben`dags`.

**Um mit der Amazon S3 S3-Konsole hochzuladen**

1. Öffnen Sie die Seite [Umgebungen](https://console.aws.amazon.com/mwaa/home#/environments) auf der Amazon MWAA-Konsole.

1. Wählen Sie eine Umgebung aus.

1. Wählen Sie im Bereich **DAG-Code im Bereich S3** **den Link S3-Bucket** aus, um Ihren Speicher-Bucket in der Konsole zu öffnen.

1. Wählen Sie den Ordner `dags` aus.

1. Klicken Sie auf **Upload**.

1. Wählen **Sie Datei hinzufügen**.

1. Wählen Sie die lokale Kopie Ihres aus `dag_def.py` und wählen Sie **Hochladen**.

## Den Pfad zu Ihrem DAGs Ordner auf der Amazon MWAA-Konsole angeben (beim ersten Mal)
<a name="configuring-dag-folder-mwaaconsole"></a>

Bei den folgenden Schritten wird davon ausgegangen, dass Sie den Pfad zu einem Ordner in Ihrem Amazon S3 S3-Bucket mit dem Namen angeben`dags`.

1. Öffnen Sie die Seite [Umgebungen](https://console.aws.amazon.com/mwaa/home#/environments) auf der Amazon MWAA-Konsole.

1. Wählen Sie die Umgebung aus, in der Sie ausführen möchten. DAGs

1. Wählen Sie **Bearbeiten** aus.

1. Wählen Sie im Bereich **DAG-Code in Amazon S3** **neben dem Feld **DAG-Ordner** die Option S3 durchsuchen** aus.

1. Wählen Sie Ihren `dags` Ordner aus.

1. Wählen Sie **Choose (Auswählen)** aus.

1. Wählen Sie **Weiter**, **Umgebung aktualisieren**.

## Zugreifen auf Änderungen in Ihrer Apache Airflow Airflow-Benutzeroberfläche
<a name="configuring-dag-folder-mwaaconsole-view"></a>

Sie benötigen [Zugriffsrichtlinie für die Apache Airflow Airflow-Benutzeroberfläche: Amazon MWAAWeb ServerAccess](access-policies.md#web-ui-access) Berechtigungen für Ihr AWS-Konto In AWS Identity and Access Management (IAM), um auf Ihre Apache Airflow Airflow-Benutzeroberfläche zugreifen zu können.

**So greifen Sie auf Ihre Apache Airflow Airflow-Benutzeroberfläche zu**

1. Öffnen Sie die Seite [Umgebungen](https://console.aws.amazon.com/mwaa/home#/environments) auf der Amazon MWAA-Konsole.

1. Wählen Sie eine Umgebung aus.

1. Wählen Sie „**Airflow-Benutzeroberfläche öffnen**“.

## Als nächstes
<a name="configuring-dag-folder-next-up"></a>

Testen Sie Ihre DAGs benutzerdefinierten Plugins und Python-Abhängigkeiten lokal mit [aws-mwaa-docker-images](https://github.com/aws/amazon-mwaa-docker-images)on GitHub.