

Die vorliegende Übersetzung wurde maschinell erstellt. Im Falle eines Konflikts oder eines Widerspruchs zwischen dieser übersetzten Fassung und der englischen Fassung (einschließlich infolge von Verzögerungen bei der Übersetzung) ist die englische Fassung maßgeblich.

# Übertragung zu oder von einem anderen Cloud-Speicher mit AWS DataSync
<a name="transferring-other-cloud-storage"></a>

Mit AWS DataSync können Sie Daten zwischen einigen anderen Cloud-Anbietern und AWS Speicherdiensten übertragen. Weitere Informationen finden Sie unter [Wohin kann ich meine Daten übertragen DataSync?](working-with-locations.md)

**Topics**
+ [Planung von Übertragungen zu oder von Cloud-Speichersystemen von Drittanbietern](third-party-cloud-transfer-considerations.md)
+ [AWS DataSync Übertragungen mit Google Cloud Storage konfigurieren](tutorial_transfer-google-cloud-storage.md)
+ [Transfers konfigurieren mit Microsoft Azure Blob Storage](creating-azure-blob-location.md)
+ [Konfiguration von AWS DataSync Übertragungen mit Microsoft Azure Files SMB-Aktien](transferring-azure-files.md)
+ [Konfiguration von Übertragungen mit anderem Cloud-Objektspeicher](creating-other-cloud-object-location.md)

# Planung von Übertragungen zu oder von Cloud-Speichersystemen von Drittanbietern
<a name="third-party-cloud-transfer-considerations"></a>

Beachten Sie bei der Planung cloudübergreifender Datenübertragungen Folgendes:
+ **Verwendung eines Agenten:** Ein Agent muss nur dann auf Speicher in anderen Clouds zugreifen, wenn Aufgaben im Basismodus verwendet werden. Für [Aufgaben im erweiterten Modus](https://docs.aws.amazon.com/datasync/latest/userguide/choosing-task-mode.html) ist kein Agent erforderlich. Wenn Sie sich für die Verwendung eines Agenten entscheiden, können Sie ihn bei der Übertragung aus dem S3-kompatiblen Objektspeicher eines Cloud-Anbieters als [Amazon EC2 EC2-Instance](https://docs.aws.amazon.com/datasync/latest/userguide/deploy-agents.html#ec2-deploy-agent) oder als Google Compute Engine bzw. Azure Virtual Machine für Übertragungen von diesen spezifischen Speicherdiensten bereitstellen. Bei der Übertragung von Dateisystemen in Google und Azure empfehlen wir, den Agenten als Google- oder Azure-VM bereitzustellen, damit sich der Agent so nah wie möglich am Dateisystem befindet. Darüber hinaus werden die Daten vom Agenten auf DataSync komprimiert AWS, wodurch die Kosten für ausgehenden Datenverkehr gesenkt werden können. DataSync bietet eine Liste [validierter Cloud-Standorte](https://docs.aws.amazon.com/datasync/latest/userguide/creating-other-cloud-object-location.html), die die erforderliche [Amazon S3 S3-API-Kompatibilität](https://docs.aws.amazon.com/datasync/latest/userguide/creating-other-cloud-object-location.html#other-cloud-access) bieten.
+ **Der Objektspeicher-Endpunkt der anderen Cloud:** Der Speicherendpunkt für einen Cloud-Drittanbieter ist in der Regel region- oder kontospezifisch. Der regionale Endpunkt wird zusammen mit einem angegebenen Bucket-Namen als Server am DataSync Objektspeicherort verwendet.
+ **Speicherklassen der Quellobjekte:** Wie Amazon S3 unterstützen einige Cloud-Anbieter eine Archivschicht, die eine Wiederherstellung erfordert, bevor auf die archivierten Objekte zugegriffen werden kann. Beispielsweise müssen Objekte in der Azure BLOB-Archivschicht vor einer Datenübertragung für den Standardzugriff abgerufen werden. Auf Objekte in der Google Cloud Storage-Archivschicht kann sofort zugegriffen werden und sie müssen nicht wiederhergestellt werden. Allerdings fallen im Zusammenhang mit dem direkten Zugriff auf die Archivebene Abrufkosten an. Bevor Sie mit der Datenübertragung beginnen, lesen Sie in der Dokumentation zu Ihrer Cloud-übergreifenden Speicherklasse die Zugriffsanforderungen und Abrufgebühren. Weitere Informationen zum Wiederherstellen archivierter Objekte in Amazon S3 finden Sie unter [Wiederherstellen eines archivierten Objekts](https://docs.aws.amazon.com/AmazonS3/latest/userguide/restoring-objects.html) im *Amazon Simple Storage Service-Benutzerhandbuch*.
+ **Zugriff auf Objektspeicher:** Für die Übertragung von Daten zwischen Cloud-Drittanbietern ist der Zugriff auf den Objektspeicher der anderen Cloud in Form von Authentifizierungsschlüsseln erforderlich. Um beispielsweise Zugriff auf Google Cloud Storage zu gewähren, konfigurieren Sie einen DataSync Objektspeicherort, der eine Verbindung zur [Google Cloud Storage-XML-API](https://cloud.google.com/storage/docs/xml-api/overview) herstellt und sich mithilfe eines [Hash-basierten HMAC-Schlüssels (Message Authentication Code)](https://docs.aws.amazon.com/datasync/latest/userguide/tutorial_transfer-google-cloud-storage.html#transfer-google-cloud-storage-create-hmac-key) für Ihr Dienstkonto authentifiziert. [Für Azure Blob Storage konfigurieren Sie einen dedizierten [Azure DataSync Blob-Speicherort](https://docs.aws.amazon.com/datasync/latest/userguide/creating-azure-blob-location.html#creating-azure-blob-location-how-to), der mithilfe von SAS-Token authentifiziert wird.](https://docs.aws.amazon.com/datasync/latest/userguide/creating-azure-blob-location.html#azure-blob-access) DataSync verwendet AWS Secrets Manager , um Ihre Objektspeicher-Anmeldeinformationen sicher zu speichern. Weitere Informationen finden Sie unter [Sichern der Anmeldeinformationen für den Speicherort](https://docs.aws.amazon.com/datasync/latest/userguide/location-credentials.html).
+ **Unterstützung für Objekt-Tags:**
  + Im Gegensatz zu Amazon S3 unterstützen nicht alle Cloud-Anbieter [Objekt-Tags](https://docs.aws.amazon.com/AmazonS3/latest/userguide/object-tagging.html). DataSync Aufgaben können beim Versuch, Tags vom Quellspeicherort zu lesen, fehlschlagen, wenn der Cloud-Anbieter keine Objekt-Tags über die Amazon S3 S3-API unterstützt oder wenn die von Ihnen angegebenen Anmeldeinformationen nicht ausreichen, um die Tags abzurufen. DataSyncbietet eine Aufgabenoption, um das [Lesen und Kopieren von Objekt-Tags](https://docs.aws.amazon.com/datasync/latest/userguide/API_Options.html#DataSync-Type-Options-ObjectTags) während einer Übertragung auszuschalten, wenn Objekt-Tags nicht unterstützt werden oder Sie die Tags nicht behalten möchten. Lesen Sie in der Dokumentation Ihres Cloud-Anbieters nach, ob Objekt-Tags unterstützt werden, und überprüfen Sie die Objekt-Tag-Einstellungen Ihrer Übertragungsaufgabe, bevor Sie die Übertragung starten.
  + Sie können die Amazon S3 S3-API verwenden, um zu überprüfen, ob ein Cloud-Anbieter eine `get-object-tagging` Anfrage zurückgibt. Weitere Informationen finden Sie unter [get-object-tagging](https://awscli.amazonaws.com/v2/documentation/api/latest/reference/s3api/get-object-tagging.html) in der Referenz zum *AWS CLI -Befehl*.

    Ein Cloud-Anbieter, der Objekt-Tags unterstützt, gibt eine Antwort zurück, die dem folgenden Beispiel ähnelt:

    ```
    aws s3api get-object-tagging --bucket BUCKET_NAME --endpoint- url=https://BUCKET_ENDPOINT --key prefix/file1
                                        
    {
    
        "TagSet": []
    
    }
    ```

    Ein Cloud-Anbieter, der dies nicht unterstützt`get-object-tagging`, gibt die folgende Meldung zurück:

    ```
    aws s3api get-object-tagging --bucket BUCKET_NAME --endpoint- url=https://BUCKET_ENDPOINT --key prefix/file1
    
    An error occurred (OperationNotSupported) when calling the GetObjectTagging operation: The operation is not supported for this resource
    ```
+ **Damit verbundene Kosten für Anfragen und ausgehende Daten:** Beim Übertragen von Daten aus dem Cloud-Objektspeicher [fallen Kosten für Anfragen](https://docs.aws.amazon.com/datasync/latest/userguide/creating-other-cloud-object-location.html#other-cloud-considerations-costs) und ausgehende Daten an. Die Gebühren für Anfragen variieren je nach Cloud-Anbieter und gegebenenfalls zwischen Speicherklassen. Informationen zu den spezifischen Kosten für Anfragen im Verhältnis zur Speicherklasse, aus der Sie lesen möchten, finden Sie in der Dokumentation Ihres Cloud-Anbieters. Eine Übersicht über die Gebühren, die DataSync für Datenübertragungen anfallen, finden Sie unter [Bewertung der Kosten für S3-Anfragen bei der Nutzung DataSync](https://docs.aws.amazon.com/datasync/latest/userguide/create-s3-location.html#create-s3-location-s3-requests) und [AWS DataSync Preisgestaltung](https://aws.amazon.com/datasync/pricing/). Bei der Übertragung von Daten von bestimmten Cloud-Anbietern fallen Gebühren für ausgehenden Datenverkehr an. Die Kosten für die Datenübertragung variieren zwischen den Cloud-Anbietern und hängen auch von der Region ab, in der die Daten gespeichert sind.
+ **Anforderungsraten für Objektspeicher:** Cloud-Anbieter weisen für ihre Objektspeicherplattformen unterschiedliche Leistungs- und Anforderungsratenmerkmale auf. Prüfen Sie die Anforderungsraten Ihres anderen Cloud-Anbieters und ermitteln Sie, wo die Anforderungslimits gelten. Planen Sie im Voraus für stark parallelisierte Übertragungen, die aus mehreren Agenten bestehen und bei denen möglicherweise spezifische Partitionierungen oder Leistungssteigerungen erforderlich sind.

  Amazon S3 verfügt über dokumentierte Anforderungsraten, auf die Sie Ihre Lösung aufbauen können. Die Amazon S3 S3-Anforderungsraten gelten pro partitioniertem Präfix und sind auf mehrere Präfixe skalierbar. Weitere Informationen finden Sie unter [Bewährte Entwurfsmuster: Optimierung der Amazon S3 S3-Leistung](https://docs.aws.amazon.com/AmazonS3/latest/userguide/optimizing-performance.html) im *Amazon Simple Storage Service-Benutzerhandbuch*.

# AWS DataSync Übertragungen mit Google Cloud Storage konfigurieren
<a name="tutorial_transfer-google-cloud-storage"></a>

Mit AWS DataSync können Sie Daten zwischen Google Cloud Storage und den folgenden AWS Speicherdiensten übertragen:
+ Amazon S3
+ Amazon EFS
+ Amazon FSx für Windows-Dateiserver
+ Amazon FSx für Lustre
+ Amazon FSx für OpenZFS
+ Amazon FSx für NetApp ONTAP

Um mit der Einrichtung der Übertragung zu beginnen, erstellen Sie einen Speicherort für Ihren Google Cloud Storage. Dieser Standort kann entweder als Übertragungsquelle oder als Ziel für die Übertragung dienen. Ein DataSync Agent ist nur erforderlich, wenn Sie Daten zwischen Google Cloud Storage und Amazon EFS oder Amazon FSx übertragen oder wenn Sie Aufgaben **im Basismodus** verwenden. Für Datenübertragungen **im erweiterten Modus** zwischen Google Cloud Storage und Amazon S3 ist kein Agent erforderlich.

**Anmerkung**  
Verwenden Sie für private Cloud-Konnektivität zwischen Google Cloud Storage und AWS den Basismodus mit Agenten.

## -Übersicht
<a name="transfer-google-cloud-storage-overview"></a>

DataSync verwendet die [Google Cloud Storage-XML-API](https://cloud.google.com/storage/docs/xml-api/overview) für Datenübertragungen. Diese API bietet eine Amazon S3 S3-kompatible Schnittstelle zum Lesen und Schreiben von Daten mit Google Cloud Storage-Buckets.

Wenn Sie den Basismodus für Übertragungen verwenden, können Sie den Agenten in Google Cloud Storage oder Ihrer Amazon VPC bereitstellen.

------
#### [ Agent in Google Cloud ]

1. Sie stellen einen DataSync Agenten in Ihrer Google Cloud-Umgebung bereit.

1. Der Agent liest Ihren Google Cloud Storage-Bucket mithilfe eines Hash-basierten HMAC-Schlüssels (Message Authentication Code).

1. Die Objekte aus Ihrem Google Cloud Storage-Bucket werden mithilfe eines öffentlichen Endpunkts sicher über TLS 1.3 in den AWS Cloud übertragen.

1. Der DataSync Dienst schreibt die Daten in Ihren S3-Bucket.

Das folgende Diagramm veranschaulicht die Übertragung.

![\[Eine DataSync Beispielübertragung zeigt, wie Objektdaten von einem Google Cloud Storage-Bucket in einen S3-Bucket übertragen werden. Zunächst wird der DataSync Agent in Ihrer Google Cloud-Umgebung bereitgestellt. Anschließend liest der DataSync Agent den Google Cloud Storage-Bucket. Die Daten werden sicher über einen öffentlichen Endpunkt in einen S3-Bucket übertragen AWS, wo sie in denselben S3-Bucket DataSync geschrieben werden AWS-Region , den Sie verwenden DataSync.\]](http://docs.aws.amazon.com/de_de/datasync/latest/userguide/images/diagram-transfer-google-cloud-storage-public.png)


------
#### [ Agent in your VPC ]

1. Sie stellen einen DataSync Agenten in einer Virtual Private Cloud (VPC) in Ihrer AWS Umgebung bereit.

1. Der Agent liest Ihren Google Cloud Storage-Bucket mithilfe eines Hash-basierten HMAC-Schlüssels (Message Authentication Code).

1. Die Objekte aus Ihrem Google Cloud Storage-Bucket werden AWS Cloud mithilfe eines privaten VPC-Endpunkts sicher über TLS 1.3 in den übertragen.

1. Der DataSync Dienst schreibt die Daten in Ihren S3-Bucket.

Das folgende Diagramm veranschaulicht die Übertragung.

![\[Eine DataSync Beispielübertragung zeigt, wie Objektdaten von einem Google Cloud Storage-Bucket in einen S3-Bucket übertragen werden. Zunächst wird der DataSync Agent in einer VPC bereitgestellt. AWS Anschließend liest der DataSync Agent den Google Cloud Storage-Bucket. Die Daten werden sicher über einen VPC-Endpunkt in einen VPC-Endpunkt übertragen AWS, wo die Objekte in einen S3-Bucket in derselben AWS-Region VPC DataSync geschrieben werden.\]](http://docs.aws.amazon.com/de_de/datasync/latest/userguide/images/diagram-transfer-google-cloud-storage.png)


------

## Kosten
<a name="transfer-google-cloud-storage-cost"></a>

Die mit dieser Migration verbundenen Gebühren können Folgendes beinhalten:
+ Ausführen einer virtuellen Maschine (VM) von Google [Compute Engine](https://cloud.google.com/compute/all-pricing) (wenn Sie Ihren DataSync Agenten in Google Cloud bereitstellen)
+ Ausführen einer [Amazon EC2 EC2-Instance](https://aws.amazon.com/ec2/pricing/) (wenn Sie Ihren DataSync Agenten in einer VPC innerhalb bereitstellen) AWS
+ Übertragung der Daten über [DataSync](https://aws.amazon.com/datasync/pricing/), einschließlich der Gebühren für Anfragen im Zusammenhang mit [Google Cloud Storage](https://cloud.google.com/storage/pricing) und [Amazon S3](create-s3-location.md#create-s3-location-s3-requests) (falls S3 einer Ihrer Übertragungsorte ist)
+ Übertragung von Daten aus [Google Cloud Storage](https://cloud.google.com/storage/pricing)
+ Speichern von Daten in [Amazon S3](https://aws.amazon.com/s3/pricing/)

## Voraussetzungen
<a name="transfer-google-cloud-storage-prerequisites"></a>

Bevor Sie beginnen, gehen Sie wie folgt vor, falls Sie dies noch nicht getan haben:
+ [Erstellen Sie einen Google Cloud Storage-Bucket](https://cloud.google.com/storage/docs/creating-buckets) mit den Objekten, in die Sie Daten übertragen möchten AWS.
+ [Melde dich für eine an AWS-Konto](https://portal.aws.amazon.com/billing/signup).
+ [Erstellen Sie einen Amazon S3 S3-Bucket](https://docs.aws.amazon.com/AmazonS3/latest/userguide/create-bucket-overview.html), in dem Sie Ihre Objekte speichern können, nachdem sie eingetroffen sind AWS.

## Einen HMAC-Schlüssel für Ihren Google Cloud Storage-Bucket erstellen
<a name="transfer-google-cloud-storage-create-hmac-key"></a>

DataSync verwendet einen HMAC-Schlüssel, der mit Ihrem Google-Dienstkonto verknüpft ist, um sich bei dem Bucket zu authentifizieren und den Bucket zu lesen, aus dem Sie Daten übertragen. (Eine ausführliche Anleitung zum Erstellen von HMAC-Schlüsseln finden Sie in der [Google Cloud Storage-Dokumentation](https://cloud.google.com/storage/docs/authentication/hmackeys).)

**Um einen HMAC-Schlüssel zu erstellen**

1. Erstellen Sie einen HMAC-Schlüssel für Ihr Google-Dienstkonto.

1. Stellen Sie sicher, dass Ihr Google-Dienstkonto mindestens über `Storage Object Viewer` Berechtigungen verfügt.

1. Speichern Sie die Zugriffs-ID und das Geheimnis Ihres HMAC-Schlüssels an einem sicheren Ort.

   Sie benötigen diese Elemente später, um Ihren DataSync Quellstandort zu konfigurieren.

## Schritt 2: Konfigurieren Sie Ihr Netzwerk
<a name="transfer-google-cloud-storage-configure-network"></a>

Die Netzwerkkonfiguration ist nur erforderlich, wenn Sie bei Ihrer Übertragung einen DataSync Agenten verwenden. Die Netzwerkanforderungen für diese Migration hängen davon ab, wo Sie Ihren Agenten einsetzen möchten.

### Für einen DataSync Agenten in Google Cloud
<a name="transfer-google-cloud-storage-configure-public"></a>

Wenn Sie Ihren DataSync Agenten in Google Cloud hosten möchten, konfigurieren Sie Ihr Netzwerk so, [dass DataSync Übertragungen über einen öffentlichen Endpunkt](datasync-network.md#using-public-endpoints) möglich sind.

### Für einen DataSync Agenten in Ihrer VPC
<a name="transfer-google-cloud-storage-configure-vpc"></a>

Wenn Sie Ihren Agenten hosten möchten AWS, benötigen Sie eine VPC mit einem Schnittstellenendpunkt. DataSync verwendet den VPC-Endpunkt, um die Übertragung zu erleichtern.

**So konfigurieren Sie Ihr Netzwerk für einen VPC-Endpunkt**

1. Wenn Sie noch keine haben, [erstellen Sie eine VPC](https://docs.aws.amazon.com/vpc/latest/userguide/working-with-vpcs.html#Create-VPC) in derselben Umgebung AWS-Region wie in Ihrem S3-Bucket.

1. [Erstellen Sie ein privates Subnetz für Ihre VPC](https://docs.aws.amazon.com/vpc/latest/userguide/create-subnets.html).

1. [Erstellen Sie einen VPC-Serviceendpunkt](https://docs.aws.amazon.com/vpc/latest/privatelink/create-interface-endpoint.html) für DataSync.

1. Konfigurieren Sie Ihr Netzwerk so, [dass DataSync Übertragungen über einen VPC-Serviceendpunkt](datasync-network.md#using-vpc-endpoint) möglich sind.

   Ändern Sie dazu die [Sicherheitsgruppe](https://docs.aws.amazon.com/vpc/latest/userguide/vpc-security-groups.html), die Ihrem VPC-Dienstendpunkt zugeordnet ist.

## Schritt 3: Erstellen Sie einen DataSync Agenten (optional)
<a name="transfer-google-cloud-storage-create-agent"></a>

Ein DataSync Agent ist nur erforderlich, wenn Sie Aufgaben im **Basismodus** verwenden. Wenn Sie den **erweiterten** Modus für die Übertragung zwischen Google Cloud Storage (GCS) und Amazon S3 verwenden, ist kein Agent erforderlich. Wenn Sie den **Basismodus** verwenden möchten, benötigen Sie einen DataSync Agenten, der auf Ihren GCS-Bucket zugreifen kann.

### Für Google Cloud
<a name="transfer-google-cloud-storage-choose-endpoint"></a>

In diesem Szenario wird der DataSync Agent in Ihrer Google Cloud-Umgebung ausgeführt.

**Bevor Sie beginnen**: [Installieren Sie die Google Cloud CLI](https://cloud.google.com/sdk/docs/install).

**Um den Agenten für Google Cloud zu erstellen**

1. Öffnen Sie die AWS DataSync Konsole unter [https://console.aws.amazon.com/datasync/](https://console.aws.amazon.com/datasync/).

1. Wählen Sie im linken Navigationsbereich **Agents** und anschließend **Create Agent** aus.

1. Wählen Sie für **Hypervisor** **die Option Image herunterladen** aus **VMware ESXi**, um eine `.zip` Datei herunterzuladen, die den Agenten enthält.

1. Öffnen Sie ein -Terminalfenster. Entpacken Sie das Image, indem Sie den folgenden Befehl ausführen:

   ```
   unzip AWS-DataSync-Agent-VMWare.zip
   ```

1. Extrahieren Sie den Inhalt der `.ova` Agentendatei, `aws-datasync` indem Sie zunächst den folgenden Befehl ausführen:

   ```
   tar -xvf aws-datasync-2.0.1655755445.1-x86_64.xfs.gpt.ova
   ```

1. Importieren Sie die `.vmdk` Agentendatei in Google Cloud, indem Sie den folgenden Google Cloud CLI-Befehl ausführen:

   ```
   gcloud compute images import aws-datasync-2-test \
      --source-file INCOMPLETE-aws-datasync-2.0.1655755445.1-x86_64.xfs.gpt-disk1.vmdk \
      --os centos-7
   ```
**Anmerkung**  
Das Importieren der `.vmdk` Datei kann bis zu zwei Stunden dauern.

1. Erstellen und starten Sie eine VM-Instanz für das Agenten-Image, das Sie gerade importiert haben. 

   Die Instanz benötigt die folgenden Konfigurationen für Ihren Agenten. (Detaillierte Anweisungen zum Erstellen einer Instanz finden Sie in der [Google Cloud Compute Engine-Dokumentation](https://cloud.google.com/compute/docs/instances).)
   + Wählen Sie für den Maschinentyp eine der folgenden Optionen aus:
     + **e2-standard-8** — Für DataSync Aufgabenausführungen, die mit bis zu 20 Millionen Objekten arbeiten.
     + **e2-standard-16** — Für DataSync Aufgabenausführungen, die mit mehr als 20 Millionen Objekten arbeiten.
   + Die Einstellungen für die Startdiskette finden Sie im Abschnitt Benutzerdefinierte Images. Wählen Sie dann das DataSync Agent-Image aus, das Sie gerade importiert haben.
   + Wählen Sie für die Einstellungen für das Dienstkonto Ihr Google-Dienstkonto aus (dasselbe Konto, das Sie in [Schritt 1](#transfer-google-cloud-storage-create-hmac-key) verwendet haben).
   + Wählen Sie für die Firewall-Einstellung die Option, HTTP-Verkehr (Port 80) zuzulassen.

     Um Ihren DataSync Agenten zu aktivieren, muss Port 80 auf dem Agenten geöffnet sein. Der Port muss nicht öffentlich zugänglich sein. Nach der Aktivierung wird der Port DataSync geschlossen.

1. Notieren Sie sich nach dem Ausführen der VM-Instanz ihre öffentliche IP-Adresse.

   Sie benötigen diese IP-Adresse, um den Agenten zu aktivieren.

1. Gehen Sie zurück zur DataSync Konsole. Gehen Sie auf dem Bildschirm **Create Agent (Agent erstellen**), in den Sie das Agenten-Image heruntergeladen haben, wie folgt vor, um Ihren Agenten zu aktivieren:
   + Wählen Sie als **Endpunkttyp** die Option Public Service Endpoints aus (z. B. **Public Service Endpoints in US East Ohio**).
   + Wählen Sie **unter Aktivierungsschlüssel** die Option **Automatisch den Aktivierungsschlüssel von Ihrem Agenten abrufen aus**.
   + Geben Sie als **Agentenadresse** die öffentliche IP-Adresse der Agent-VM-Instanz ein, die Sie gerade erstellt haben.
   + Wählen Sie **Schlüssel abrufen** aus.

1. Geben Sie Ihrem Agenten einen Namen und wählen Sie dann **Create Agent** aus.

Ihr Agent ist online und bereit, Daten zu übertragen.

### Für Ihre VPC
<a name="transfer-google-cloud-storage-deploy-agent"></a>

In diesem Szenario wird der Agent als Amazon EC2 EC2-Instance in einer VPC ausgeführt, die mit Ihrer verknüpft ist. AWS-Konto

**Bevor Sie beginnen**: [Richten Sie das AWS Command Line Interface ()AWS CLI](https://docs.aws.amazon.com/cli/latest/userguide/cli-chap-getting-started.html) ein.

**Um den Agenten für Ihre VPC zu erstellen**

1. Öffnen Sie ein -Terminalfenster. Stellen Sie sicher, dass Sie Ihr AWS CLI Profil so konfigurieren, dass es das Konto verwendet, das Ihrem S3-Bucket zugeordnet ist.

1. Kopieren Sie den folgenden Befehl. `vpc-region`Ersetzen Sie durch den AWS-Region Ort, an dem sich Ihre VPC befindet (z. B.`us-east-1`).

   ```
   aws ssm get-parameter --name /aws/service/datasync/ami --region vpc-region
   ```

1. Führen Sie den Befehl aus. Notieren Sie sich in der Ausgabe die `"Value"` Eigenschaft.

   Dieser Wert ist die DataSync Amazon Machine Image (AMI) -ID der Region, die Sie angegeben haben. Eine AMI-ID könnte beispielsweise so aussehen`ami-1234567890abcdef0`.

1. Kopieren Sie die folgende URL. Ersetzen Sie erneut `vpc-region` durch den Ort, AWS-Region an dem sich Ihre VPC befindet. Ersetzen Sie es dann `ami-id` durch die AMI-ID, die Sie im vorherigen Schritt notiert haben.

   ```
   https://console.aws.amazon.com/ec2/v2/home?region=vpc-region#LaunchInstanceWizard:ami=ami-id
   ```

1. Fügen Sie die URL in einen Browser ein.

   Die Startseite der Amazon EC2 EC2-Instance AWS-Managementkonsole wird angezeigt.

1. Wählen Sie **unter Instance-Typ** eine der [empfohlenen Amazon EC2 EC2-Instances für DataSync Agenten](agent-requirements.md#ec2-instance-types) aus.

1. Wählen Sie für **key pair** ein vorhandenes Schlüsselpaar aus, oder erstellen Sie ein neues.

1. Wählen Sie **unter Netzwerkeinstellungen** die VPC und das Subnetz aus, in denen Sie den Agenten bereitstellen möchten.

1. Wählen Sie **Launch Instance (Instance starten)** aus.

1. Sobald die Amazon EC2 EC2-Instance läuft, [wählen Sie Ihren VPC-Endpunkt](choose-service-endpoint.md#datasync-in-vpc) aus.

1. [Aktivieren Sie Ihren Agenten](activate-agent.md).

## Schritt 4: Erstellen Sie einen DataSync Quellspeicherort für Ihren Google Cloud Storage-Bucket
<a name="transfer-google-cloud-storage-create-source"></a>

Um einen DataSync Speicherort für Ihren Google Cloud Storage-Bucket einzurichten, benötigen Sie die Zugriffs-ID und das Geheimnis für den HMAC-Schlüssel, den Sie in [Schritt 1](#transfer-google-cloud-storage-create-hmac-key) erstellt haben.

**Um den DataSync Quellspeicherort zu erstellen**

1. Öffnen Sie die AWS DataSync Konsole unter [https://console.aws.amazon.com/datasync/](https://console.aws.amazon.com/datasync/).

1. Erweitern Sie im linken Navigationsbereich die Option **Datenübertragung** und wählen Sie dann **Standorte** und **Standort erstellen** aus.

1. Wählen Sie als **Standorttyp** die Option **Objektspeicher** aus.

1. Geben Sie für **Server** den Wert ein**storage.googleapis.com**.

1. Geben Sie als **Bucket-Namen** den Namen Ihres Google Cloud Storage-Buckets ein.

1. Geben Sie für **Ordner** ein Objektpräfix ein.

   DataSync kopiert nur Objekte mit diesem Präfix.

1. Wenn für Ihre Übertragung ein Agent erforderlich ist, wählen Sie **Agenten verwenden** und dann den Agenten aus, den Sie in [Schritt 3](#transfer-google-cloud-storage-create-agent) erstellt haben.

1. Erweitern Sie **Additional settings** (Zusätzliche Einstellungen). Wählen Sie als **Serverprotokoll** **HTTPS** aus. Wählen Sie **443** für **Serverport** aus.

1. Scrollen Sie nach unten zum Abschnitt **Authentifizierung**. Vergewissern Sie sich, dass das Kontrollkästchen **Anmeldeinformationen erforderlich** aktiviert ist, und gehen Sie dann wie folgt vor:
   + Geben Sie unter **Zugriffsschlüssel** die Zugriffs-ID Ihres HMAC-Schlüssels ein.
   + Geben Sie unter **Geheimer Schlüssel entweder den geheimen** Schlüssel Ihres HMAC-Schlüssels direkt ein, oder geben Sie ein AWS Secrets Manager Geheimnis an, das den Schlüssel enthält. Weitere Informationen finden Sie unter [Bereitstellen von Anmeldeinformationen für Speicherorte](https://docs.aws.amazon.com/datasync/latest/userguide/location-credentials.html).

1. Wählen Sie **Standort erstellen** aus.

## Schritt 5: Erstellen Sie einen DataSync Zielort für Ihren S3-Bucket
<a name="transfer-google-cloud-storage-create-destination"></a>

Sie benötigen einen DataSync Ort, an dem Ihre Daten landen sollen.

**Um den DataSync Zielort zu erstellen**

1. Öffnen Sie die AWS DataSync Konsole unter [https://console.aws.amazon.com/datasync/](https://console.aws.amazon.com/datasync/).

1. Erweitern Sie im linken Navigationsbereich die Option **Datenübertragung** und wählen Sie dann **Standorte** und **Standort erstellen** aus.

1. [Erstellen Sie einen DataSync Standort für den S3-Bucket](create-s3-location.md).

   Wenn Sie den DataSync Agenten in Ihrer VPC bereitgestellt haben, wird in diesem Tutorial davon ausgegangen, dass sich der S3-Bucket in derselben AWS-Region VPC und DataSync Ihrem Agenten befindet. 

## Schritt 6: Eine Aufgabe erstellen und starten DataSync
<a name="transfer-google-cloud-storage-start-task"></a>

Wenn Ihre Quell- und Zielorte konfiguriert sind, können Sie damit beginnen, Ihre Daten dorthin zu verschieben AWS.

**Um die DataSync Aufgabe zu erstellen und zu starten**

1. Öffnen Sie die AWS DataSync Konsole unter [https://console.aws.amazon.com/datasync/](https://console.aws.amazon.com/datasync/).

1. Erweitern Sie im linken Navigationsbereich die Option **Datenübertragung**, wählen Sie dann **Aufgaben** und anschließend **Aufgabe erstellen** aus.

1. Gehen Sie auf der Seite **Quellspeicherort konfigurieren** wie folgt vor:

   1. **Wählen Sie „Bestehenden Standort** auswählen“.

   1. Wählen Sie den Quellspeicherort aus, den Sie in [Schritt 4](#transfer-google-cloud-storage-create-source) erstellt haben, und klicken Sie dann auf **Weiter**.

1. Gehen Sie auf der Seite **Zielort konfigurieren** wie folgt vor:

   1. **Wählen Sie „Bestehenden Standort** auswählen“.

   1. Wählen Sie den Zielort aus, den Sie in [Schritt 5](#transfer-google-cloud-storage-create-destination) erstellt haben, und klicken Sie dann auf **Weiter**.

1. Gehen Sie auf der Seite **„Einstellungen konfigurieren**“ wie folgt vor:

   1. Erweitern Sie unter **Konfiguration der Datenübertragung** den **Eintrag Zusätzliche Einstellungen** und deaktivieren **Sie das Kontrollkästchen Objekt-Tags kopieren**.
**Wichtig**  
Da die Google Cloud Storage XML API das Lesen oder Schreiben von Objekt-Tags nicht unterstützt, schlägt Ihre DataSync Aufgabe möglicherweise fehl, wenn Sie versuchen, Objekt-Tags zu kopieren.

   1. Konfigurieren Sie alle anderen gewünschten Aufgabeneinstellungen und wählen Sie dann **Weiter**.

1. **Überprüfen Sie** auf der Seite Überprüfen Ihre Einstellungen und wählen Sie dann **Aufgabe erstellen** aus.

1. Wählen Sie auf der Detailseite der Aufgabe die Option **Start** und dann eine der folgenden Optionen aus:
   + Um die Aufgabe ohne Änderungen auszuführen, wählen Sie **Mit Standardeinstellungen beginnen**.
   + Um die Aufgabe vor der Ausführung zu ändern, wählen Sie **Mit überschreibenden Optionen beginnen.**

Wenn Ihre Aufgabe abgeschlossen ist, sehen Sie die Objekte aus Ihrem Google Cloud Storage-Bucket in Ihrem S3-Bucket.

# Transfers konfigurieren mit Microsoft Azure Blob Storage
<a name="creating-azure-blob-location"></a>

Mit AWS DataSync können Sie Daten zwischen Microsoft Azure Blob Storage (einschließlich Azure Data Lake Storage Gen2 Blob-Speicher) und den folgenden AWS Speicherdiensten übertragen:
+ [Amazon S3](create-s3-location.md)
+ [Amazon EFS](create-efs-location.md)
+ [Amazon FSx für Windows-Dateiserver](create-fsx-location.md)
+ [Amazon FSx für Lustre](create-lustre-location.md)
+ [Amazon FSx für OpenZFS](create-openzfs-location.md)
+ [Amazon FSx für NetApp ONTAP](create-ontap-location.md)

Um diese Art der Übertragung einzurichten, erstellen Sie einen [Standort](how-datasync-transfer-works.md#sync-locations) für IhrenAzure Blob Storage. Sie können diesen Standort als Übertragungsquelle oder Ziel verwenden. Ein DataSync Agent ist nur erforderlich, wenn Daten zwischen Azure Blob und Amazon EFS oder Amazon FSx übertragen werden oder wenn Aufgaben im **Basismodus** verwendet werden. Sie benötigen keinen Agenten, um Daten zwischen Azure Blob und Amazon S3 im **erweiterten** Modus zu übertragen.

## Bereitstellung des DataSync Zugriffs auf Ihr Azure Blob Storage
<a name="azure-blob-access"></a>

Wie auf Sie DataSync zugegriffen wird, Azure Blob Storage hängt von mehreren Faktoren ab, z. B. davon, ob Sie Daten zu oder von einem Blob-Speicher übertragen und welche Art von [Shared Access Signature (SAS) -Token](#azure-blob-sas-tokens) Sie verwenden. Ihre Objekte müssen sich außerdem in einer [Zugriffsebene](#azure-blob-access-tiers) befinden, mit der gearbeitet werden DataSync kann.

**Topics**
+ [SAS-Token](#azure-blob-sas-tokens)
+ [Zugriffsebenen](#azure-blob-access-tiers)

### SAS-Token
<a name="azure-blob-sas-tokens"></a>

Ein SAS-Token gibt die Zugriffsberechtigungen für Ihren Blob-Speicher an. (Weitere Informationen zu SAS finden Sie in der [Azure Blob StorageDokumentation](https://learn.microsoft.com/azure/storage/common/storage-sas-overview).)

Sie können SAS-Token generieren, um verschiedene Zugriffsebenen bereitzustellen. DataSync unterstützt Token mit den folgenden Zugriffsebenen:
+ Account
+ Behälter

Die benötigten Zugriffsberechtigungen hängen vom Umfang Ihres Tokens ab. DataSync Wenn Sie nicht über die richtigen Berechtigungen verfügen, kann Ihre Übertragung fehlschlagen. Ihre Übertragung ist beispielsweise nicht erfolgreich, wenn Sie Objekte mit Tags verschieben, Ihr SAS-Token Azure Blob Storage jedoch nicht über Tag-Berechtigungen verfügt.

**Topics**
+ [SAS-Token-Berechtigungen für den Zugriff auf Kontoebene](#account-sas-tokens)
+ [SAS-Token-Berechtigungen für den Zugriff auf Containerebene](#container-sas-tokens)
+ [SAS-Ablaufrichtlinien](#azure-blob-sas-expiration-policies)

#### SAS-Token-Berechtigungen für den Zugriff auf Kontoebene
<a name="account-sas-tokens"></a>

DataSync benötigt ein Zugriffstoken auf Kontoebene mit den folgenden Berechtigungen (je nachdem, ob Sie zu oder von dort übertragen). Azure Blob Storage

------
#### [ Transfers from blob storage ]
+ **Zulässige Dienste** — Blob
+ **Zulässige Ressourcentypen** — Container, Objekt

  Wenn Sie diese Berechtigungen nicht angeben, DataSync können Sie Ihre Objektmetadaten, einschließlich [Objekt-Tags](#azure-blob-considerations-object-tags), nicht übertragen.
+ **Zulässige Berechtigungen** — Lesen, Auflisten
+ **Zulässige Blob-Index-Berechtigungen** — Read/Write (wenn Sie [Objekt-Tags](#azure-blob-considerations-object-tags) kopieren DataSync möchten)

------
#### [ Transfers to blob storage ]
+ **Zulässige Dienste** — Blob
+ **Zulässige Ressourcentypen** — Container, Objekt

  Wenn Sie diese Berechtigungen nicht angeben, DataSync können Sie Ihre Objektmetadaten, einschließlich [Objekt-Tags](#azure-blob-considerations-object-tags), nicht übertragen.
+ **Zulässige Berechtigungen** — Lesen, Schreiben, Auflisten, Löschen (wenn Sie Dateien entfernen DataSync möchten, die sich nicht in Ihrer Übertragungsquelle befinden)
+ **Zulässige Blob-Index-Berechtigungen** — Read/Write (wenn Sie [Objekt-Tags](#azure-blob-considerations-object-tags) kopieren DataSync möchten)

------

#### SAS-Token-Berechtigungen für den Zugriff auf Containerebene
<a name="container-sas-tokens"></a>

DataSync benötigt ein Zugriffstoken auf Containerebene mit den folgenden Berechtigungen (je nachdem, ob Sie zu oder von dort übertragen). Azure Blob Storage

------
#### [ Transfers from blob storage ]
+ Lesen
+ Auflisten
+ Tag (wenn Sie [Objekt-Tags](#azure-blob-considerations-object-tags) kopieren DataSync möchten)
**Anmerkung**  
Sie können die Tag-Berechtigung nicht hinzufügen, wenn Sie ein SAS-Token im Azure Portal generieren. Um die Tag-Berechtigung hinzuzufügen, generieren Sie stattdessen das Token mithilfe der [https://learn.microsoft.com/en-us/azure/vs-azure-tools-storage-manage-with-storage-explorer](https://learn.microsoft.com/en-us/azure/vs-azure-tools-storage-manage-with-storage-explorer)App oder generieren Sie ein [SAS-Token, das Zugriff auf Kontoebene ermöglicht](#account-sas-tokens).

------
#### [ Transfers to blob storage ]
+ Lesen
+ Write (Schreiben)
+ Auflisten
+ Löschen (wenn Sie Dateien entfernen DataSync möchten, die sich nicht in Ihrer Übertragungsquelle befinden)
+ Tag (wenn Sie [Objekt-Tags](#azure-blob-considerations-object-tags) kopieren DataSync möchten)
**Anmerkung**  
Sie können die Tag-Berechtigung nicht hinzufügen, wenn Sie ein SAS-Token im Azure Portal generieren. Um die Tag-Berechtigung hinzuzufügen, generieren Sie stattdessen das Token mithilfe der [https://learn.microsoft.com/en-us/azure/vs-azure-tools-storage-manage-with-storage-explorer](https://learn.microsoft.com/en-us/azure/vs-azure-tools-storage-manage-with-storage-explorer)App oder generieren Sie ein [SAS-Token, das Zugriff auf Kontoebene ermöglicht](#account-sas-tokens).

------

#### SAS-Ablaufrichtlinien
<a name="azure-blob-sas-expiration-policies"></a>

Stellen Sie sicher, dass Ihr SAS nicht abläuft, bevor Sie damit rechnen, Ihre Übertragung abzuschließen. Informationen zur Konfiguration einer SAS-Ablaufrichtlinie finden Sie in der [Azure Blob StorageDokumentation](https://learn.microsoft.com/en-us/azure/storage/common/sas-expiration-policy).

Wenn das SAS während der Übertragung abläuft, DataSync kann nicht mehr auf Ihren Azure Blob Storage Standort zugegriffen werden. (Möglicherweise wird die Fehlermeldung „Verzeichnis konnte nicht geöffnet werden“ angezeigt.) In diesem Fall [aktualisieren Sie Ihren Standort](#azure-blob-update-location) mit einem neuen SAS-Token und starten Sie Ihre DataSync Aufgabe neu.

### Zugriffsebenen
<a name="azure-blob-access-tiers"></a>

Bei der Übertragung von Azure Blob Storage DataSync können Objekte der Stufen „Heiß“ und „Kalt“ kopiert werden. Bei Objekten in der Archivzugriffsebene müssen Sie diese Objekte in die Warm- oder Kaltstufe rehydrieren, bevor Sie sie kopieren können.

Bei der Übertragung auf Azure Blob Storage DataSync können Objekte in die Zugriffsebenen „Heiß“, „Kühl“ und „Archiv“ kopiert werden. Wenn Sie Objekte in die Archivzugriffsebene kopieren, DataSync kann die Übertragung nicht verifiziert werden, wenn Sie versuchen, [alle Daten im Ziel zu überprüfen](configure-data-verification-options.md).

DataSync unterstützt die Stufe für den kalten Zugriff nicht. Weitere Informationen zu den Zugriffsebenen finden Sie in der [Azure Blob StorageDokumentation](https://learn.microsoft.com/en-us/azure/storage/blobs/access-tiers-overview?tabs=azure-portal).

## Überlegungen zu Azure Blob Storage Übertragungen
<a name="azure-blob-considerations"></a>

Wenn Sie planen, Daten zu oder von Azure Blob Storage mit zu übertragen DataSync, sollten Sie einige Dinge beachten.

**Topics**
+ [Kosten](#azure-blob-considerations-costs)
+ [Blob-Typen](#blob-types)
+ [AWS-Region Verfügbarkeit](#azure-blob-considerations-regions)
+ [Objekt-Tags werden kopiert](#azure-blob-considerations-object-tags)
+ [Übertragung auf Amazon S3](#azure-blob-considerations-s3)
+ [Löschen von Verzeichnissen in einem Übertragungsziel](#azure-blob-considerations-deleted-files)
+ [Einschränkungen](#azure-blob-limitations)

### Kosten
<a name="azure-blob-considerations-costs"></a>

Die Gebühren, die mit der Übertragung von Daten in oder aus der Quelle verbunden sind, Azure Blob Storage können Folgendes beinhalten:
+ Ausführen einer [Azurevirtuellen Maschine (VM)](https://azure.microsoft.com/en-us/pricing/details/virtual-machines/linux/) (wenn Sie einen DataSync Agenten einsetzenAzure)
+ Ausführen einer [Amazon EC2 EC2-Instance](https://aws.amazon.com/ec2/pricing/) (wenn Sie darin einen DataSync Agenten in einer VPC bereitstellen) AWS
+ Übertragung der Daten über Amazon S3 [DataSync](https://aws.amazon.com/datasync/pricing/), einschließlich der Anforderungsgebühren für [Amazon S3](create-s3-location.md#create-s3-location-s3-requests) (falls S3 einer Ihrer Übertragungsorte ist) [https://azure.microsoft.com/en-us/pricing/details/storage/blobs/](https://azure.microsoft.com/en-us/pricing/details/storage/blobs/)
+ Übertragung von Daten in oder aus [https://azure.microsoft.com/en-us/pricing/details/storage/blobs/](https://azure.microsoft.com/en-us/pricing/details/storage/blobs/)
+ Speichern von Daten in einem [AWS Speicherdienst](working-with-locations.md), der unterstützt wird von DataSync

### Blob-Typen
<a name="blob-types"></a>

Wie mit Blob-Typen DataSync funktioniert, hängt davon ab, ob Sie zu oder von dort übertragen. Azure Blob Storage Wenn Sie Daten in den Blob-Speicher verschieben, können die Objekte oder Dateien, die DataSync übertragen werden, nur Block-Blobs sein. Wenn Sie Daten aus dem Blob-Speicher verschieben, DataSync können Blobs übertragen, blockiert, verschoben und angehängt werden.

[Weitere Informationen zu Blob-Typen finden Sie in der Dokumentation. Azure Blob Storage](https://learn.microsoft.com/en-us/rest/api/storageservices/understanding-block-blobs--append-blobs--and-page-blobs)

### AWS-Region Verfügbarkeit
<a name="azure-blob-considerations-regions"></a>

Sie können einen Azure Blob Storage Übertragungsort an einem beliebigen Ort erstellen [AWS-Region , der von unterstützt wird DataSync](https://docs.aws.amazon.com/general/latest/gr/datasync.html#datasync-region).

### Objekt-Tags werden kopiert
<a name="azure-blob-considerations-object-tags"></a>

Die Fähigkeit DataSync , Objekt-Tags bei der Übertragung zu oder von dort beizubehalten, Azure Blob Storage hängt von den folgenden Faktoren ab:
+ **Die Größe der Tags eines Objekts — Objekte mit Tags**, die 2 KB überschreiten, DataSync können nicht übertragen werden.
+ **Ob für DataSync das Kopieren von Objekt-Tags konfiguriert ist** — DataSync [kopiert standardmäßig Objekt-Tags](configure-metadata.md).
+ **Der Namespace, den Ihr Azure Speicherkonto verwendet** — DataSync kann Objekttags kopieren, wenn Ihr Azure Speicherkonto einen flachen Namespace verwendet, aber nicht, wenn Ihr Konto einen hierarchischen Namespace verwendet (eine Funktion von). Azure Data Lake Storage Gen2 Ihre DataSync Aufgabe schlägt fehl, wenn Sie versuchen, Objekttags zu kopieren und Ihr Speicherkonto einen hierarchischen Namespace verwendet.
+ **Ob Ihr SAS-Token das Tagging autorisiert** — Die Berechtigungen, die Sie zum Kopieren von Objekt-Tags benötigen, hängen von der Zugriffsebene ab, die Ihr Token bietet. Ihre Aufgabe schlägt fehl, wenn Sie versuchen, Objekt-Tags zu kopieren, und Ihr Token nicht über die richtigen Berechtigungen zum Taggen verfügt. Weitere Informationen finden Sie in den Berechtigungsanforderungen für Zugriffstoken auf [Kontoebene oder Zugriffstoken auf](#account-sas-tokens) [Containerebene](#container-sas-tokens).

### Übertragung auf Amazon S3
<a name="azure-blob-considerations-s3"></a>

Bei der Übertragung zu Amazon S3 DataSync werden keine Azure Blob Storage Objekte übertragen, die größer als 5 TB sind, oder Objekte mit Metadaten, die größer als 2 KB sind.

### Löschen von Verzeichnissen in einem Übertragungsziel
<a name="azure-blob-considerations-deleted-files"></a>

Bei der Übertragung an Azure Blob Storage DataSync können [Objekte in Ihrem Blob-Speicher entfernt werden, die in Ihrer Übertragungsquelle nicht vorhanden](configure-metadata.md) sind. (Sie können diese Option konfigurieren, indem Sie die Einstellung **Gelöschte Dateien behalten** in der DataSync Konsole löschen. Ihr [SAS-Token](#azure-blob-sas-tokens) muss außerdem über Löschberechtigungen verfügen.)

Wenn Sie Ihre Übertragung auf diese Weise konfigurieren, DataSync werden keine Verzeichnisse in Ihrem Blob-Speicher gelöscht, wenn Ihr Azure Speicherkonto einen hierarchischen Namespace verwendet. In diesem Fall müssen Sie die Verzeichnisse manuell löschen (z. B. mithilfe von). [https://learn.microsoft.com/en-us/azure/storage/blobs/data-lake-storage-explorer](https://learn.microsoft.com/en-us/azure/storage/blobs/data-lake-storage-explorer)

### Einschränkungen
<a name="azure-blob-limitations"></a>

Beachten Sie bei der Übertragung von oder nach Daten die folgenden EinschränkungenAzure Blob Storage:
+ DataSync [erstellt einige Verzeichnisse](filtering.md#directories-ignored-during-transfers) an einem Ort, um Ihnen die Übertragung zu erleichtern. Wenn Azure Blob Storage es sich um einen Zielort handelt und Ihr Speicherkonto einen hierarchischen Namespace verwendet, fallen Ihnen möglicherweise aufgabenspezifische Unterverzeichnisse (z. B.`task-000011112222abcde`) in dem Ordner auf. `/.aws-datasync` DataSync löscht diese Unterverzeichnisse in der Regel nach einer Übertragung. Geschieht das nicht, können Sie diese aufgabenspezifischen Verzeichnisse selbst löschen, solange eine Aufgabe nicht ausgeführt wird.
+ DataSync unterstützt nicht die Verwendung eines SAS-Tokens, um nur auf einen bestimmten Ordner in Ihrem Azure Blob Storage Container zuzugreifen.
+ Sie können kein SAS-Token für die Benutzerdelegierung für den Zugriff auf Ihren Blob-Speicher bereitstellen DataSync .

## Erstellen Sie Ihren DataSync Agenten (optional)
<a name="azure-blob-creating-agent"></a>

Ein DataSync Agent ist nur erforderlich, wenn Daten zwischen Azure Blob und Amazon EFS oder Amazon FSx übertragen werden oder wenn Aufgaben im **Basismodus** verwendet werden. Sie benötigen keinen Agenten, um Daten zwischen Azure Blob und Amazon S3 im **erweiterten** Modus zu übertragen. In diesem Abschnitt wird beschrieben, wie Sie einen Agenten bereitstellen und aktivieren.

**Tipp**  
Sie können Ihren Agenten zwar auf einer Amazon EC2 EC2-Instance bereitstellen, die Verwendung eines Microsoft Hyper-V Agenten kann jedoch zu einer geringeren Netzwerklatenz und mehr Datenkomprimierung führen. 

### Microsoft Hyper-V-Agenten
<a name="azure-blob-creating-agent-hyper-v"></a>

Sie können Ihren DataSync Agenten direkt Azure mit einem Microsoft Hyper-V Image bereitstellen.

**Tipp**  
Bevor Sie fortfahren, sollten Sie in Erwägung ziehen, ein Shell-Skript zu verwenden, mit dem Sie Ihren Hyper-V-Agenten möglicherweise schneller bereitstellen können. Azure Weitere Informationen und das Herunterladen des Codes finden Sie unter. [GitHub](https://github.com/aws-samples/aws-datasync-deploy-agent-azure)  
Wenn Sie das Skript verwenden, können Sie mit dem Abschnitt über fortfahren[Den Aktivierungsschlüssel Ihres Agenten abrufen](#azure-blob-creating-agent-hyper-v-3).

**Topics**
+ [Voraussetzungen](#azure-blob-creating-agent-hyper-v-0)
+ [Laden Sie Ihren Agenten herunter und bereiten Sie ihn vor](#azure-blob-creating-agent-hyper-v-1)
+ [Bereitstellen Ihres Agenten in Azure](#azure-blob-creating-agent-hyper-v-2)
+ [Den Aktivierungsschlüssel Ihres Agenten abrufen](#azure-blob-creating-agent-hyper-v-3)
+ [Ihren Agenten aktivieren](#azure-blob-creating-agent-hyper-v-4)

#### Voraussetzungen
<a name="azure-blob-creating-agent-hyper-v-0"></a>

Um Ihren DataSync Agenten vorzubereiten und zu implementierenAzure, müssen Sie wie folgt vorgehen:
+ Hyper-VAuf Ihrem lokalen Computer aktivieren.
+ Installieren Sie [https://learn.microsoft.com/en-us/powershell/scripting/install/installing-powershell?view=powershell-7.3&viewFallbackFrom=powershell-7.1](https://learn.microsoft.com/en-us/powershell/scripting/install/installing-powershell?view=powershell-7.3&viewFallbackFrom=powershell-7.1)(einschließlich derHyper-V Module).
+ Installieren Sie die [AzureCLI](https://learn.microsoft.com/en-us/cli/azure/install-azure-cli).
+ Installieren [https://learn.microsoft.com/en-us/azure/storage/common/storage-use-azcopy-v10?toc=%2Fazure%2Fstorage%2Fblobs%2Ftoc.json&bc=%2Fazure%2Fstorage%2Fblobs%2Fbreadcrumb%2Ftoc.json](https://learn.microsoft.com/en-us/azure/storage/common/storage-use-azcopy-v10?toc=%2Fazure%2Fstorage%2Fblobs%2Ftoc.json&bc=%2Fazure%2Fstorage%2Fblobs%2Fbreadcrumb%2Ftoc.json).

#### Laden Sie Ihren Agenten herunter und bereiten Sie ihn vor
<a name="azure-blob-creating-agent-hyper-v-1"></a>

Laden Sie einen Agenten von der DataSync Konsole herunter. Bevor Sie den Agenten bereitstellen könnenAzure, müssen Sie ihn in eine virtuelle Festplatte (VHD) mit fester Größe konvertieren. Weitere Informationen finden Sie in der [Azure-Dokumentation](https://learn.microsoft.com/en-us/azure/virtual-machines/windows/prepare-for-upload-vhd-image).

**So laden Sie Ihren Agenten herunter und bereiten ihn vor**

1. Öffnen Sie die AWS DataSync Konsole unter [https://console.aws.amazon.com/datasync/](https://console.aws.amazon.com/datasync/).

1. Wählen Sie im linken Navigationsbereich **Agents** und anschließend **Create Agent** aus.

1. Wählen Sie für **Hypervisor **Microsoft Hyper-V****die Option **Image herunterladen aus**.

   Der Agent lädt eine `.zip` Datei herunter, die eine `.vhdx` Datei enthält.

1. Extrahieren Sie die `.vhdx` Datei auf Ihrem lokalen Computer.

1. Öffnen Sie PowerShell und führen Sie die folgenden Schritte aus:

   1. Kopieren Sie das folgende `Convert-VHD` Cmdlet:

      ```
      Convert-VHD -Path .\local-path-to-vhdx-file\aws-datasync-2.0.1686143940.1-x86_64.xfs.gpt.vhdx `
      -DestinationPath .\local-path-to-vhdx-file\aws-datasync-2016861439401-x86_64.vhd -VHDType Fixed
      ```

   1. Ersetzen Sie jede Instanz von `local-path-to-vhdx-file` durch den Speicherort der `.vhdx` Datei auf Ihrem lokalen Computer.

   1. Führen Sie den Befehl aus.

   Ihr Agent ist jetzt eine virtuelle Festplatte mit fester Größe (mit einem `.vhd` Dateiformat) und kann dort bereitgestellt werden. Azure

#### Bereitstellen Ihres Agenten in Azure
<a name="azure-blob-creating-agent-hyper-v-2"></a>

Der Einsatz Ihres DataSync Agenten in Azure umfasst:
+ Erstellen einer verwalteten Festplatte in Azure
+ Laden Sie Ihren Agenten auf diese verwaltete Festplatte hoch
+ Die verwaltete Festplatte an eine Linux virtuelle Maschine anhängen

**Um Ihren Agenten bereitzustellen in Azure**

1. Gehen Sie in PowerShell das Verzeichnis, das die `.vhd` Datei Ihres Agenten enthält.

1. Führen Sie den `ls` Befehl aus und speichern Sie den `Length` Wert (z. B.`85899346432`).

   Dies ist die Größe Ihres Agenten-Images in Byte, die Sie benötigen, wenn Sie eine verwaltete Festplatte erstellen, auf der das Image gespeichert werden kann.

1. Gehen Sie wie folgt vor, um eine verwaltete Festplatte zu erstellen:

   1. Kopieren Sie den folgenden Azure CLI-Befehl:

      ```
      az disk create -n your-managed-disk `
      -g your-resource-group `
      -l your-azure-region `
      --upload-type Upload `
      --upload-size-bytes agent-size-bytes `
      --sku standard_lrs
      ```

   1. `your-managed-disk`Ersetzen Sie ihn durch einen Namen für Ihre verwaltete Festplatte.

   1. `your-resource-group`Ersetzen Sie ihn durch den Namen der Azure Ressourcengruppe, zu der Ihr Speicherkonto gehört.

   1. `your-azure-region`Ersetzen Sie es durch die Azure Region, in der sich Ihre Ressourcengruppe befindet.

   1. `agent-size-bytes`Ersetzen Sie es durch die Größe Ihres Agenten-Images.

   1. Führen Sie den Befehl aus.

   Dieser Befehl erstellt eine leere verwaltete Festplatte mit einer [Standard-SKU](https://learn.microsoft.com/en-us/rest/api/storagerp/srp_sku_types), auf die Sie Ihren DataSync Agenten hochladen können.

1. Gehen Sie wie folgt vor, um eine Shared Access Signature (SAS) zu generieren, die Schreibzugriff auf die verwaltete Festplatte ermöglicht:

   1. Kopieren Sie den folgenden Azure CLI-Befehl:

      ```
      az disk grant-access -n your-managed-disk `
      -g your-resource-group `
      --access-level Write `
      --duration-in-seconds 86400
      ```

   1. `your-managed-disk`Ersetzen Sie ihn durch den Namen der verwalteten Festplatte, die Sie erstellt haben.

   1. `your-resource-group`Ersetzen Sie es durch den Namen der Azure Ressourcengruppe, zu der Ihr Speicherkonto gehört.

   1. Führen Sie den Befehl aus.

      Notieren Sie sich in der Ausgabe den SAS-URI. Sie benötigen diese URI, wenn Sie den Agenten auf Azure hochladen.

   Mit dem SAS können Sie bis zu einer Stunde auf die Festplatte schreiben. Das bedeutet, dass Sie eine Stunde Zeit haben, um Ihren Agenten auf die verwaltete Festplatte hochzuladen.

1. Gehen Sie wie folgt vor, um Ihren Agenten auf Azure Ihre verwaltete Festplatte hochzuladen:

   1. Kopieren Sie den folgenden `AzCopy` Befehl:

      ```
      .\azcopy copy local-path-to-vhd-file sas-uri --blob-type PageBlob
      ```

   1. `local-path-to-vhd-file`Ersetzen Sie ihn durch den Speicherort der `.vhd` Agentendatei auf Ihrem lokalen Computer.

   1. `sas-uri`Ersetzen Sie durch den SAS-URI, den Sie bei der Ausführung des `az disk grant-access` Befehls erhalten haben.

   1. Führen Sie den Befehl aus.

1. Wenn der Upload des Agenten abgeschlossen ist, widerrufen Sie den Zugriff auf Ihre verwaltete Festplatte. Kopieren Sie dazu den folgenden Azure CLI-Befehl:

   ```
   az disk revoke-access -n your-managed-disk -g your-resource-group
   ```

   1. `your-resource-group`Ersetzen Sie es durch den Namen der Azure Ressourcengruppe, zu der Ihr Speicherkonto gehört.

   1. `your-managed-disk`Ersetzen Sie durch den Namen der verwalteten Festplatte, die Sie erstellt haben.

   1. Führen Sie den Befehl aus.

1. Gehen Sie wie folgt vor, um Ihre verwaltete Festplatte an eine neue Linux VM anzuhängen:

   1. Kopieren Sie den folgenden Azure CLI-Befehl:

      ```
      az vm create --resource-group your-resource-group `
      --location eastus `
      --name your-agent-vm `
      --size Standard_E4as_v4 `
      --os-type linux `
      --attach-os-disk your-managed-disk
      ```

   1. `your-resource-group`Ersetzen Sie es durch den Namen der Azure Ressourcengruppe, zu der Ihr Speicherkonto gehört.

   1. `your-agent-vm`Ersetzen Sie es durch einen Namen für die VM, an den Sie sich erinnern können.

   1. `your-managed-disk`Ersetzen Sie ihn durch den Namen der verwalteten Festplatte, die Sie an die VM anhängen.

   1. Führen Sie den Befehl aus.

Sie haben Ihren Agenten bereitgestellt. Bevor Sie mit der Konfiguration Ihrer Datenübertragung beginnen können, müssen Sie den Agenten aktivieren.

#### Den Aktivierungsschlüssel Ihres Agenten abrufen
<a name="azure-blob-creating-agent-hyper-v-3"></a>

Gehen Sie wie folgt vor, um den Aktivierungsschlüssel Ihres DataSync Agenten manuell zu erhalten. 

Alternativ [DataSync kann der Aktivierungsschlüssel automatisch für Sie abgerufen](activate-agent.md) werden, aber für diesen Ansatz ist eine Netzwerkkonfiguration erforderlich.

**Um den Aktivierungsschlüssel Ihres Agenten zu erhalten**

1. [Aktivieren Sie im Azure Portal die Startdiagnose für die VM für Ihren Agenten](https://learn.microsoft.com/en-us/azure/virtual-machines/boot-diagnostics), indem Sie die Einstellung **Mit benutzerdefiniertem Speicherkonto aktivieren** wählen und Ihr Azure Speicherkonto angeben.

   Nachdem Sie die Startdiagnose für die VM Ihres Agenten aktiviert haben, können Sie auf die lokale Konsole Ihres Agenten zugreifen, um den Aktivierungsschlüssel abzurufen.

1. Gehen Sie, während Sie sich noch im Azure Portal befinden, zu Ihrer VM und wählen Sie **Serielle Konsole**.

1. Melden Sie sich in der lokalen Konsole des Agenten mit den folgenden Standardanmeldedaten an: 
   + **Benutzername** – **admin**
   + **Passwort** — **password**

   Wir empfehlen, irgendwann mindestens das Passwort des Agenten zu ändern. Geben Sie **5** in der lokalen Konsole des Agenten das Hauptmenü ein und ändern Sie dann mit dem `passwd` Befehl das Passwort.

1. Geben Sie ein**0**, um den Aktivierungsschlüssel des Agenten zu erhalten.

1. Geben Sie den AWS-Region Ort ein, den Sie verwenden DataSync (z. B.**us-east-1**).

1. Wählen Sie den [Dienstendpunkt](choose-service-endpoint.md) aus, mit dem der Agent eine Verbindung herstellen soll AWS. 

1. Speichern Sie den Wert der `Activation key` Ausgabe. 

#### Ihren Agenten aktivieren
<a name="azure-blob-creating-agent-hyper-v-4"></a>

Nachdem Sie den Aktivierungsschlüssel erhalten haben, können Sie die Erstellung Ihres DataSync Agenten abschließen.

**So aktivieren Sie Ihren Agenten**

1. Öffnen Sie die AWS DataSync Konsole unter [https://console.aws.amazon.com/datasync/](https://console.aws.amazon.com/datasync/).

1. Wählen Sie im linken Navigationsbereich **Agents** und anschließend **Create Agent** aus.

1. Wählen Sie **Microsoft Hyper-V**für **Hypervisor**.

1. Wählen Sie als **Endpunkttyp** den gleichen Typ von Dienstendpunkt aus, den Sie angegeben haben, als Sie den Aktivierungsschlüssel Ihres Agenten erhalten haben (wählen Sie beispielsweise **Öffentliche Dienstendpunkte in *Region name***).

1. Konfigurieren Sie Ihr Netzwerk so, dass es mit dem Service-Endpunkttyp funktioniert, den Ihr Agent verwendet. Informationen zu den Netzwerkanforderungen für Service-Endpunkte finden Sie in den folgenden Themen:
   + [VPC-Endpunkte](datasync-network.md#using-vpc-endpoint)
   + [Öffentliche Endpunkte](datasync-network.md#using-public-endpoints)
   + [Endpunkte für den Federal Information Processing Standard (FIPS).](datasync-network.md#using-public-endpoints)

1. Gehen Sie für **den Aktivierungsschlüssel** wie folgt vor:

   1. Wählen Sie **Manuell den Aktivierungsschlüssel Ihres Agenten eingeben**.

   1. Geben Sie den Aktivierungsschlüssel ein, den Sie von der lokalen Konsole des Agenten erhalten haben.

1. Wählen Sie **Create agent (Agent erstellen)** aus.

Ihr Agent ist bereit, eine Verbindung mit Ihrem herzustellenAzure Blob Storage. Weitere Informationen finden Sie unter [Erstellen Sie Ihren Azure Blob Storage Transferort](#creating-azure-blob-location-how-to).

### Amazon EC2 EC2-Agenten
<a name="azure-blob-creating-agent-ec2"></a>

Sie können Ihren DataSync Agenten auf einer Amazon EC2 EC2-Instance bereitstellen.

**So erstellen Sie einen Amazon EC2 EC2-Agenten**

1. [Stellen Sie einen Amazon EC2 EC2-Agenten](deploy-agents.md#ec2-deploy-agent) bereit.

1. [Wählen Sie einen Service-Endpunkt](choose-service-endpoint.md), mit AWS dem der Agent kommuniziert.

   In diesem Fall empfehlen wir die Verwendung eines Virtual Private Cloud (VPC) -Dienstendpunkts.

1. Konfigurieren Sie Ihr Netzwerk so, dass es mit [VPC-Dienstendpunkten](datasync-network.md#using-vpc-endpoint) funktioniert.

1. [Aktivieren Sie den Agenten](https://docs.aws.amazon.com/datasync/latest/userguide/activate-agent.html).

## Erstellen Sie Ihren Azure Blob Storage Transferort
<a name="creating-azure-blob-location-how-to"></a>

Sie können so konfigurieren DataSync , dass Sie Azure Blob Storage als Übertragungsquelle oder -ziel verwendet werden.

**Bevor Sie beginnen**  
Stellen Sie sicher, dass Sie wissen, [wie auf DataSync Zugriffsebenen Azure Blob Storage](#azure-blob-access) [und [Blob-Typen](#blob-types) zugegriffen](#azure-blob-access-tiers) wird und wie mit ihnen gearbeitet wird. Sie benötigen außerdem einen [DataSync Agenten](#azure-blob-creating-agent), der eine Verbindung zu Ihrem Azure Blob Storage Container herstellen kann.

### Verwenden der DataSync Konsole
<a name="creating-azure-blob-location-console"></a>

1. Öffnen Sie die AWS DataSync Konsole unter [https://console.aws.amazon.com/datasync/](https://console.aws.amazon.com/datasync/).

1. Erweitern Sie im linken Navigationsbereich die Option **Datenübertragung** und wählen Sie dann **Standorte** und **Standort erstellen** aus.

1. Wählen Sie für **Speichertyp** die Option **Microsoft Azure Blob Storage** aus.

1. Geben Sie **unter Container-URL** die URL des Containers ein, der an Ihrer Übertragung beteiligt ist.

1. (Optional) Wählen Sie **unter Zugriffsebene bei Verwendung als Ziel** die [Zugriffsebene](#azure-blob-access-tiers) aus, in die Ihre Objekte oder Dateien übertragen werden sollen.

1. Geben Sie unter **Ordner** Pfadsegmente ein, wenn Sie die Übertragung auf ein virtuelles Verzeichnis in Ihrem Container beschränken möchten (z. B.`/my/images`).

1. Wenn für Ihre Übertragung ein Agent erforderlich ist, wählen Sie **Agenten verwenden** und dann den DataSync Agenten aus, der eine Verbindung zu Ihrem Azure Blob Storage Container herstellen kann.

1. Geben Sie für das **SAS-Token** die Anmeldeinformationen ein, die für den DataSync Zugriff auf Ihren Blob-Speicher erforderlich sind. Für einige öffentliche Datensätze im Azure Blob Storage sind keine Anmeldeinformationen erforderlich. Sie können ein SAS-Token direkt eingeben oder ein AWS Secrets Manager Geheimnis angeben, das das Token enthält. Weitere Informationen finden Sie unter [Bereitstellen von Anmeldeinformationen für Speicherorte](https://docs.aws.amazon.com/datasync/latest/userguide/location-credentials.html).

   Ihr SAS-Token ist Teil der SAS-URI-Zeichenfolge, die nach Ihrer Speicherressourcen-URI und einem Fragezeichen (`?`) steht. Ein Token sieht ungefähr so aus:

   ```
   sp=r&st=2023-12-20T14:54:52Z&se=2023-12-20T22:54:52Z&spr=https&sv=2021-06-08&sr=c&sig=aBBKDWQvyuVcTPH9EBp%2FXTI9E%2F%2Fmq171%2BZU178wcwqU%3D
   ```

1. (Optional) Geben Sie Werte für die Felder **Schlüssel** und **Wert** ein, um den Standort zu kennzeichnen.

   Mithilfe von Stichwörtern können Sie Ihre AWS Ressourcen verwalten, filtern und nach ihnen suchen. Wir empfehlen, zumindest ein Namensschild für Ihren Standort zu erstellen. 

1. Wählen Sie **Standort erstellen** aus.

### Verwenden Sie den AWS CLI
<a name="creating-azure-blob-location-cli"></a>

1. Kopieren Sie den folgenden `create-location-azure-blob` Befehl:

   ```
   aws datasync create-location-azure-blob \
     --container-url "https://path/to/container" \
     --authentication-type "SAS" \
     --sas-configuration '{
         "Token": "your-sas-token"
       }' \
     --agent-arns my-datasync-agent-arn \
     --subdirectory "/path/to/my/data" \
     --access-tier "access-tier-for-destination" \
     --tags [{"Key": "key1","Value": "value1"}]
   ```

1. Geben Sie für den `--container-url` Parameter die URL des Azure Blob Storage Containers an, der an Ihrer Übertragung beteiligt ist.

1. Geben Sie für den Parameter `--authentication-type` `SAS` an: Wenn Sie auf einen öffentlichen Datensatz zugreifen, für den keine Authentifizierung erforderlich ist, geben Sie Folgendes an`NONE`.

1. Geben Sie für die `Token` Option des `--sas-configuration` Parameters das SAS-Token an, das den DataSync Zugriff auf Ihren Blob-Speicher ermöglicht. 

   Sie können auch zusätzliche Parameter für die Sicherung Ihrer Schlüssel angeben, indem AWS Secrets Manager Sie. Weitere Informationen finden Sie unter [Bereitstellen von Anmeldeinformationen für Speicherorte](https://docs.aws.amazon.com/datasync/latest/userguide/location-credentials.html).

   Ihr SAS-Token ist Teil der SAS-URI-Zeichenfolge, die nach Ihrer Speicherressourcen-URI und einem Fragezeichen (`?`) steht. Ein Token sieht ungefähr so aus:

   ```
   sp=r&st=2023-12-20T14:54:52Z&se=2023-12-20T22:54:52Z&spr=https&sv=2021-06-08&sr=c&sig=aBBKDWQvyuVcTPH9EBp%2FXTI9E%2F%2Fmq171%2BZU178wcwqU%3D
   ```

1. (Optional) Geben Sie für den `--agent-arns` Parameter den Amazon-Ressourcennamen (ARN) des DataSync Agenten an, der eine Verbindung zu Ihrem Container herstellen kann.

   Hier ist ein Beispiel für einen Agenten-ARN: `arn:aws:datasync:us-east-1:123456789012:agent/agent-01234567890aaabfb`

   Sie können mehr als einen Agenten angeben. Weitere Informationen finden Sie unter [Verwendung mehrerer DataSync Agenten](do-i-need-datasync-agent.md#multiple-agents).

1. Geben Sie für den `--subdirectory` Parameter Pfadsegmente an, wenn Sie Ihre Übertragung auf ein virtuelles Verzeichnis in Ihrem Container beschränken möchten (z. B.`/my/images`).

1. (Optional) Geben Sie für den `--access-tier` Parameter die [Zugriffsebene](#azure-blob-access-tiers) (`HOT``COOL`, oder`ARCHIVE`) an, in die Ihre Objekte oder Dateien übertragen werden sollen.

   Dieser Parameter gilt nur, wenn Sie diesen Speicherort als Übertragungsziel verwenden.

1. (Optional) Geben Sie für den `--tags` Parameter Schlüssel-Wert-Paare an, die Ihnen bei der Verwaltung, Filterung und Suche nach Ihrem Standort helfen können.

   Wir empfehlen, ein Namensschild für Ihren Standort zu erstellen.

1. Führen Sie den Befehl `create-location-azure-blob` aus.

   Wenn der Befehl erfolgreich ist, erhalten Sie eine Antwort, die Ihnen den ARN des Speicherorts anzeigt, den Sie erstellt haben. Beispiel:

   ```
   { 
       "LocationArn": "arn:aws:datasync:us-east-1:123456789012:location/loc-12345678abcdefgh" 
   }
   ```

## Ihr Azure Blob Storage Übertragungsort wird angezeigt
<a name="azure-blob-view-location"></a>

Sie können Details zum bestehenden DataSync Transferort für Sie abrufenAzure Blob Storage.

### Verwenden der DataSync Konsole
<a name="azure-blob-view-location-console"></a>

1. Öffnen Sie die AWS DataSync Konsole unter [https://console.aws.amazon.com/datasync/](https://console.aws.amazon.com/datasync/).

1. Erweitern Sie im linken Navigationsbereich die Option **Datenübertragung** und wählen Sie dann **Standorte** aus.

1. Wählen Sie Ihren Azure Blob Storage Standort.

   Sie können Details zu Ihrem Standort einsehen, einschließlich aller DataSync Übertragungsaufgaben, die ihn verwenden.

### Mit dem AWS CLI
<a name="azure-blob-view-location-cli"></a>

1. Kopieren Sie den folgenden `describe-location-azure-blob` Befehl:

   ```
   aws datasync describe-location-azure-blob \
     --location-arn "your-azure-blob-location-arn"
   ```

1. Geben Sie für den `--location-arn` Parameter den ARN für den Azure Blob Storage Speicherort an, den Sie erstellt haben (z. B.`arn:aws:datasync:us-east-1:123456789012:location/loc-12345678abcdefgh`).

1. Führen Sie den Befehl `describe-location-azure-blob` aus.

   Sie erhalten eine Antwort, die Ihnen Details zu Ihrem Standort zeigt. Beispiel:

   ```
   {
       "LocationArn": "arn:aws:datasync:us-east-1:123456789012:location/loc-12345678abcdefgh",
       "LocationUri": "azure-blob://my-user.blob.core.windows.net/container-1",
       "AuthenticationType": "SAS",
       "Subdirectory": "/my/images",
       "AgentArns": ["arn:aws:datasync:us-east-1:123456789012:agent/agent-01234567890deadfb"],
   }
   ```

## Aktualisierung Ihres Azure Blob Storage Übertragungsorts
<a name="azure-blob-update-location"></a>

Bei Bedarf können Sie die Konfiguration Ihres Standorts in der Konsole oder mithilfe der ändern AWS CLI.

### Mit dem AWS CLI
<a name="azure-blob-update-location-cli"></a>

1. Kopieren Sie den folgenden `update-location-azure-blob` Befehl:

   ```
   aws datasync update-location-azure-blob \
     --location-arn "your-azure-blob-location-arn" \
     --authentication-type "SAS" \
     --sas-configuration '{
         "Token": "your-sas-token"
       }' \
     --agent-arns my-datasync-agent-arn \
     --subdirectory "/path/to/my/data" \
     --access-tier "access-tier-for-destination"
   ```

1. Geben Sie für den `--location-arn` Parameter den ARN für den Azure Blob Storage Standort an, den Sie aktualisieren (z. B.`arn:aws:datasync:us-east-1:123456789012:location/loc-12345678abcdefgh`).

1. Geben Sie für den Parameter `--authentication-type` `SAS` an:

1. Geben Sie für die `Token` Option des `--sas-configuration` Parameters das SAS-Token an, das den DataSync Zugriff auf Ihren Blob-Speicher ermöglicht. 

   Das Token ist Teil der SAS-URI-Zeichenfolge, die nach dem Speicherressourcen-URI und einem Fragezeichen (`?`) steht. Ein Token sieht ungefähr so aus:

   ```
   sp=r&st=2022-12-20T14:54:52Z&se=2022-12-20T22:54:52Z&spr=https&sv=2021-06-08&sr=c&sig=qCBKDWQvyuVcTPH9EBp%2FXTI9E%2F%2Fmq171%2BZU178wcwqU%3D
   ```

1. Geben Sie für den `--agent-arns` Parameter den Amazon-Ressourcennamen (ARN) des DataSync Agenten an, den Sie mit Ihrem Container verbinden möchten.

   Hier ist ein Beispiel für einen Agenten-ARN: `arn:aws:datasync:us-east-1:123456789012:agent/agent-01234567890aaabfb`

   Sie können mehr als einen Agenten angeben. Weitere Informationen finden Sie unter [Verwendung mehrerer DataSync Agenten](do-i-need-datasync-agent.md#multiple-agents).

1. Geben Sie für den `--subdirectory` Parameter Pfadsegmente an, wenn Sie Ihre Übertragung auf ein virtuelles Verzeichnis in Ihrem Container beschränken möchten (z. B.`/my/images`).

1. (Optional) Geben Sie für den `--access-tier` Parameter die [Zugriffsebene](#azure-blob-access-tiers) (`HOT``COOL`, oder`ARCHIVE`) an, in die Ihre Objekte übertragen werden sollen.

   Dieser Parameter gilt nur, wenn Sie diesen Standort als Übertragungsziel verwenden.

## Nächste Schritte
<a name="create-azure-blob-location-next-steps"></a>

Nachdem Sie mit der Erstellung eines DataSync Standorts für Ihren fertig sindAzure Blob Storage, können Sie mit der Einrichtung Ihres Transfers fortfahren. Hier sind einige der nächsten Schritte, die Sie berücksichtigen sollten:

1. Falls Sie dies noch nicht getan haben, [erstellen Sie einen anderen Speicherort](working-with-locations.md), an den Sie Ihre Daten übertragen möchten oder von IhremAzure Blob Storage.

1. Erfahren Sie, DataSync [wie mit Metadaten und speziellen Dateien](metadata-copied.md) umgegangen wird, insbesondere wenn Ihre Übertragungsorte keine ähnliche Metadatenstruktur haben.

1. Konfigurieren Sie, wie Ihre Daten übertragen werden. Sie können beispielsweise [nur einen Teil Ihrer Daten übertragen oder Dateien in Ihrem](filtering.md) Blob-Speicher löschen, die sich nicht an Ihrem Quellspeicherort befinden (sofern Ihr [SAS-Token](#azure-blob-sas-tokens) über Löschberechtigungen verfügt).

1. [Starten Sie Ihre Übertragung](run-task.md). 

# Konfiguration von AWS DataSync Übertragungen mit Microsoft Azure Files SMB-Aktien
<a name="transferring-azure-files"></a>

Sie können so konfigurieren AWS DataSync , dass Daten zu oder von einer SMB-Freigabe (Microsoft Azure FilesServer Message Block) übertragen werden.

**Tipp**  
[Eine vollständige Anleitung zum Verschieben von Daten aus Azure Files SMB-Shares zu finden Sie im AWSAWS Storage-Blog.](https://aws.amazon.com/blogs/storage/how-to-move-data-from-azure-files-smb-shares-to-aws-using-aws-datasync/)

## Bereitstellung des DataSync Zugriffs auf SMB-Shares
<a name="configuring-smb-azure-files"></a>

DataSync stellt über das SMB-Protokoll eine Verbindung zu Ihrem SMB-Share her und authentifiziert sich mit den von Ihnen angegebenen Anmeldeinformationen.

**Topics**
+ [Unterstützte SMB-Protokollversionen](#configuring-smb-version-azure-files)
+ [Erforderliche Berechtigungen](#configuring-smb-permissions-azure-files)

### Unterstützte SMB-Protokollversionen
<a name="configuring-smb-version-azure-files"></a>

Wählt standardmäßig DataSync automatisch eine Version des SMB-Protokolls auf der Grundlage der Verhandlungen mit Ihrem SMB-Dateiserver aus.

Sie können auch die Verwendung einer bestimmten SMB-Version konfigurieren. Wir empfehlen jedoch, dies nur dann DataSync zu tun, wenn DataSync Probleme bei der automatischen Aushandlung mit dem SMB-Dateiserver auftreten. DataSync unterstützt SMB-Versionen 1.0 und höher. Aus Sicherheitsgründen empfehlen wir die Verwendung von SMB Version 3.0.2 oder höher. Frühere Versionen, wie SMB 1.0, enthalten bekannte Sicherheitslücken, die Angreifer ausnutzen können, um Ihre Daten zu gefährden.

In der folgenden Tabelle finden Sie eine Liste der Optionen in der DataSync Konsole und der API:


| Konsolenoption | API-Option | Description | 
| --- | --- | --- | 
| Automatisch |  `AUTOMATIC`  |  DataSync und der SMB-Dateiserver handeln zwischen 2.1 und 3.1.1 die höchste Version von SMB aus, die sie gegenseitig unterstützen. Dies ist die Standardoption und wird empfohlen. Wenn Sie stattdessen eine bestimmte Version auswählen, die Ihr Dateiserver nicht unterstützt, erhalten Sie möglicherweise eine `Operation Not Supported`-Fehlermeldung.  | 
|  SMB 3.0.2  |  `SMB3`  |  Beschränkt die Protokollaushandlung nur auf SMB-Version 3.0.2.  | 
| SMB 2.1 |  `SMB2`  | Beschränkt die Protokollaushandlung nur auf SMB-Version 2.1. | 
| SMB 2.0 | `SMB2_0` | Beschränkt die Protokollaushandlung nur auf SMB Version 2.0. | 
| SMB 1.0 | `SMB1` | Beschränkt die Protokollaushandlung nur auf SMB Version 1.0. | 

### Erforderliche Berechtigungen
<a name="configuring-smb-permissions-azure-files"></a>

DataSync benötigt einen Benutzer, der berechtigt ist, Ihren SMB-Standort bereitzustellen und darauf zuzugreifen. Dies kann ein lokaler Benutzer auf Ihrem Windows-Dateiserver oder ein Domänenbenutzer sein, der in Ihrem Microsoft Active Directory definiert ist.

Um den Objekteigentum festzulegen, ist die `SE_RESTORE_NAME` Berechtigung DataSync erforderlich, die normalerweise Mitgliedern der integrierten Active Directory-Gruppen **Backup-Operatoren** und **Domänenadministratoren** gewährt wird. Wenn Sie einem Benutzer dieses Recht gewähren, können Sie auch sicherstellen, dass ausreichende Berechtigungen für Dateien, Ordner und Dateimetadaten vorhanden sind, mit Ausnahme von NTFS-Systemzugriffskontrolllisten ()SACLs. DataSync 

Zum Kopieren SACLs sind zusätzliche Rechte erforderlich. Dazu ist insbesondere das `SE_SECURITY_NAME` Windows-Recht erforderlich, das Mitgliedern der Gruppe **Domänen-Admins** gewährt wird. Wenn Sie Ihre Aufgabe für das Kopieren konfigurieren SACLs, stellen Sie sicher, dass der Benutzer über die erforderlichen Rechte verfügt. Weitere Informationen zur Konfiguration einer Aufgabe zum Kopieren SACLs finden Sie unter[Konfiguration des Umgangs mit Dateien, Objekten und Metadaten](configure-metadata.md).

Wenn Sie Daten zwischen einem SMB-Dateiserver und dem Dateisystem Amazon FSx for Windows File Server kopieren, müssen Quell- und Zielspeicherorte derselben Microsoft Active Directory-Domäne angehören oder eine Active Directory-Vertrauensstellung zwischen ihren Domänen bestehen.

## Erstellen Sie Ihren Azure Files-Übertragungsort mithilfe der Konsole
<a name="create-azure-files-smb-location-how-to"></a>

1. Öffnen Sie die AWS DataSync Konsole unter [https://console.aws.amazon.com/datasync/](https://console.aws.amazon.com/datasync/).

1. Erweitern Sie im linken Navigationsbereich die Option **Datenübertragung** und wählen Sie dann **Standorte** und **Standort erstellen** aus.

1. Wählen Sie für **Location type (Speicherorttyp)** **Server Message Block (SMB)**.

   Sie konfigurieren diesen Speicherort später als Quelle oder Ziel.

1. Wählen Sie unter **Agenten** einen oder mehrere DataSync Agenten aus, die Sie mit Ihrem SMB-Share verbinden möchten.

   Wenn Sie mehr als einen Agenten auswählen, stellen Sie sicher, dass Sie verstehen, [mehrere Agenten für einen Standort](do-i-need-datasync-agent.md#multiple-agents) zu verwenden.

1. Geben Sie für **SMB-Server** den DNS-Namen (Domain Name System) oder die IP-Adresse der SMB-Freigabe ein, die Ihr DataSync Agent bereitstellen wird.
**Anmerkung**  
Sie können keine IP-Adresse der Version 6 (IPv6) angeben.

1. Geben Sie unter **Freigabename** den Namen der Freigabe ein, die von Ihrer SMB-Freigabe exportiert wurde und in die Daten gelesen oder geschrieben DataSync werden sollen.

   Sie können ein Unterverzeichnis in den Freigabepfad aufnehmen (z. B.`/path/to/subdirectory`). Stellen Sie sicher, dass andere SMB-Clients in Ihrem Netzwerk diesen Pfad ebenfalls bereitstellen können. 

   Um alle Daten im Unterverzeichnis zu kopieren, DataSync müssen Sie in der Lage sein, die SMB-Freigabe zu mounten und auf alle zugehörigen Daten zuzugreifen. Weitere Informationen finden Sie unter [Erforderliche Berechtigungen](create-smb-location.md#configuring-smb-permissions).

1. (Optional) Erweitern Sie **Zusätzliche Einstellungen** und wählen Sie eine **SMB-Version** aus, die Sie beim Zugriff auf Ihre SMB-Freigabe verwenden möchten. DataSync 

   Wählt standardmäßig DataSync automatisch eine Version aus, die auf Verhandlungen mit der SMB-Aktie basiert. Weitere Informationen finden Sie unter [Unterstützte SMB-Versionen](create-smb-location.md#configuring-smb-version).

1. Geben Sie **unter Benutzer** einen Benutzernamen ein, der Ihre SMB-Freigabe bereitstellen kann und über Zugriffsrechte auf die Dateien und Ordner verfügt, die an Ihrer Übertragung beteiligt sind.

   Weitere Informationen finden Sie unter [Erforderliche Berechtigungen](create-smb-location.md#configuring-smb-permissions).

1. Geben Sie **unter Passwort** das Passwort des Benutzers ein, der Ihre SMB-Freigabe bereitstellen kann und berechtigt ist, auf die Dateien und Ordner zuzugreifen, die an Ihrer Übertragung beteiligt sind.

1. (Optional) Geben Sie unter **Domain** den Windows-Domänennamen ein, zu dem Ihre SMB-Freigabe gehört.

   Wenn Sie mehrere Domänen in Ihrer Umgebung haben, wird durch die Konfiguration dieser Einstellung sichergestellt, dass DataSync eine Verbindung zur richtigen Freigabe hergestellt wird.

1. (Optional) Wählen Sie **Tag hinzufügen**, um Ihren Standort zu taggen.

   *Stichwörter* sind Schlüssel-Wert-Paare, die dir helfen, deine Standorte zu verwalten, zu filtern und nach ihnen zu suchen. Wir empfehlen, zumindest ein Namensschild für Ihren Standort zu erstellen. 

1. Wählen Sie Standort **erstellen** aus.

# Konfiguration von Übertragungen mit anderem Cloud-Objektspeicher
<a name="creating-other-cloud-object-location"></a>

Mit AWS DataSync können Sie Daten zwischen [AWS Speicherdiensten](transferring-aws-storage.md) und den folgenden Cloud-Objektspeicheranbietern übertragen:
+ [https://docs.wasabi.com/](https://docs.wasabi.com/)
+ [https://docs.digitalocean.com/](https://docs.digitalocean.com/)
+ [https://docs.oracle.com/iaas/Content/home.htm](https://docs.oracle.com/iaas/Content/home.htm)
+ [https://developers.cloudflare.com/r2/](https://developers.cloudflare.com/r2/)
+ [https://www.backblaze.com/docs/cloud-storage](https://www.backblaze.com/docs/cloud-storage)
+ [https://guide.ncloud-docs.com/docs/](https://guide.ncloud-docs.com/docs/)
+ [https://www.alibabacloud.com/help/en/oss/product-overview/what-is-oss](https://www.alibabacloud.com/help/en/oss/product-overview/what-is-oss)
+ [https://cloud.ibm.com/docs/cloud-object-storage?topic=cloud-object-storage-getting-started-cloud-object-storage](https://cloud.ibm.com/docs/cloud-object-storage?topic=cloud-object-storage-getting-started-cloud-object-storage)
+ [https://help.lyvecloud.seagate.com/en/product-features.html](https://help.lyvecloud.seagate.com/en/product-features.html)

Ein DataSync Agent ist nur erforderlich, wenn Daten zwischen Speichersystemen in anderen Clouds und Amazon EFS oder Amazon FSx übertragen werden oder wenn Aufgaben im **Basismodus** verwendet werden. Sie benötigen keinen Agenten, um Daten zwischen Speichersystemen in anderen Clouds und Amazon S3 im **erweiterten** Modus zu übertragen.

Unabhängig davon, ob Sie einen Agenten verwenden, müssen Sie auch einen [Übertragungsort](how-datasync-transfer-works.md#sync-locations) für Ihren Cloud-Objektspeicher (insbesondere einen **Objektspeicherort**) erstellen. DataSync kann diesen Speicherort als Quelle oder Ziel für Ihre Übertragung verwenden.

## Bereitstellung des DataSync Zugriffs auf Ihren anderen Cloud-Objektspeicher
<a name="other-cloud-access"></a>

Wie auf Ihren Cloud-Objektspeicher DataSync zugegriffen wird, hängt von mehreren Faktoren ab, unter anderem davon, ob Ihr Speicher mit der Amazon S3 S3-API kompatibel ist und von den Berechtigungen und Anmeldeinformationen, die DataSync für den Zugriff auf Ihren Speicher erforderlich sind.

**Topics**
+ [Amazon S3 S3-API-Kompatibilität](#other-cloud-s3-compatibility)
+ [Speicherberechtigungen und Endpunkte](#other-cloud-permissions)
+ [Anmeldeinformationen für den Speicher](#other-cloud-credentials)

### Amazon S3 S3-API-Kompatibilität
<a name="other-cloud-s3-compatibility"></a>

Ihr Cloud-Objektspeicher muss mit den folgenden [Amazon S3 S3-API-Vorgängen](https://docs.aws.amazon.com/AmazonS3/latest/API/API_Operations.html) kompatibel sein DataSync , um eine Verbindung herzustellen:
+ `AbortMultipartUpload`
+ `CompleteMultipartUpload`
+ `CopyObject`
+ `CreateMultipartUpload`
+ `DeleteObject`
+ `DeleteObjects`
+ `DeleteObjectTagging`
+ `GetBucketLocation`
+ `GetObject`
+ `GetObjectTagging`
+ `HeadBucket`
+ `HeadObject`
+ `ListObjectsV2`
+ `PutObject`
+ `PutObjectTagging`
+ `UploadPart`

### Speicherberechtigungen und Endpunkte
<a name="other-cloud-permissions"></a>

Sie müssen die Berechtigungen konfigurieren, die den DataSync Zugriff auf Ihren Cloud-Objektspeicher ermöglichen. Wenn es sich bei Ihrem Objektspeicher um einen Quellspeicherort handelt, DataSync sind Lese- und Listenberechtigungen für den Bucket erforderlich, aus dem Sie Daten übertragen. Wenn es sich bei Ihrem Objektspeicher um einen Zielspeicherort handelt, DataSync benötigt er Lese-, Listen-, Schreib- und Löschberechtigungen für den Bucket.

DataSync benötigt außerdem einen Endpunkt (oder Server), um eine Verbindung zu Ihrem Speicher herzustellen. In der folgenden Tabelle werden die Endpunkte beschrieben, die für den Zugriff auf andere Cloud-Objektspeicher verwendet werden DataSync können:


| Anderer Cloud-Anbieter | Endpoint | 
| --- | --- | 
| Wasabi Cloud Storage |  `S3.region.wasabisys.com`  | 
| DigitalOcean Spaces |  `region.digitaloceanspaces.com`  | 
| Oracle Cloud Infrastructure Object Storage |  `namespace.compat.objectstorage.region.oraclecloud.com`  | 
|  Cloudflare R2 Storage  |  `account-id.r2.cloudflarestorage.com`  | 
|  Backblaze B2 Cloud Storage  |  `S3.region.backblazeb2.com`  | 
| NAVER Cloud Object Storage |  `region.object.ncloudstorage.com`(die meisten Regionen)  | 
| Alibaba Cloud Object Storage Service | `region.aliyuncs.com` | 
| IBM Cloud Object Storage | `s3.region.cloud-object-storage.appdomain.cloud` | 
| Seagate Lyve Cloud | `s3.region.lyvecloud.seagate.com` | 

**Wichtig**  
Einzelheiten zur Konfiguration von Bucket-Berechtigungen und aktualisierte Informationen zu Speicherendpunkten finden Sie in der Dokumentation Ihres Cloud-Anbieters.

### Anmeldeinformationen für den Speicher
<a name="other-cloud-credentials"></a>

DataSync benötigt außerdem die Anmeldeinformationen für den Zugriff auf den Objektspeicher-Bucket, der an Ihrer Übertragung beteiligt ist. Dies kann ein Zugriffsschlüssel und ein geheimer Schlüssel oder etwas Ähnliches sein, je nachdem, wie Ihr Cloud-Speicheranbieter auf diese Anmeldeinformationen verweist.

Weitere Informationen finden Sie in der Dokumentation Ihres Cloud-Anbieters.

## Überlegungen bei der Übertragung von einem anderen Cloud-Objektspeicher
<a name="other-cloud-considerations"></a>

Wenn Sie planen, Objekte mithilfe von Cloud Storage zu oder von einem anderen Cloud-Speicheranbieter zu übertragen DataSync, sollten Sie einige Dinge beachten.

**Topics**
+ [Kosten](#other-cloud-considerations-costs)
+ [Speicherklassen](#other-cloud-considerations-storage-classes)
+ [Objekt-Tags](#other-cloud-considerations-object-tags)
+ [Übertragung auf Amazon S3](#other-cloud-considerations-s3)

### Kosten
<a name="other-cloud-considerations-costs"></a>

Die Gebühren, die mit dem Verschieben von Daten zu und von einem anderen Cloud-Speicheranbieter verbunden sind, können Folgendes beinhalten:
+ Ausführen einer [Amazon EC2 EC2-Instance](https://aws.amazon.com/ec2/pricing/) für Ihren Agenten DataSync 
+ Übertragung der Daten mithilfe von Amazon S3 [DataSync](https://aws.amazon.com/datasync/pricing/), einschließlich Anforderungsgebühren für Ihren Cloud-Objektspeicher und [Amazon S3](create-s3-location.md#create-s3-location-s3-requests) (wenn S3 Ihr Übertragungsziel ist)
+ Übertragung von Daten in oder aus Ihrem Cloud-Speicher (überprüfen Sie die Preise Ihres Cloud-Anbieters)
+ Speichern von Daten in einem [AWS Speicherdienst](transferring-aws-storage.md), der unterstützt wird von DataSync
+ Speichern von Daten bei einem anderen Cloud-Anbieter (überprüfen Sie die Preise Ihres Cloud-Anbieters)

### Speicherklassen
<a name="other-cloud-considerations-storage-classes"></a>

Einige Cloud-Speicheranbieter haben Speicherklassen (ähnlich wie [Amazon S3](create-s3-location.md#using-storage-classes)), die nicht gelesen werden DataSync können, ohne zuvor wiederhergestellt zu werden. Oracle Cloud Infrastructure Object StorageHat beispielsweise eine Archivspeicherklasse. Sie müssen Objekte in dieser Speicherklasse wiederherstellen, bevor DataSync Sie sie übertragen können. Weitere Informationen finden Sie in der Dokumentation Ihres Cloud-Anbieters.

### Objekt-Tags
<a name="other-cloud-considerations-object-tags"></a>

Nicht alle Cloud-Anbieter unterstützen Objekt-Tags. Diejenigen, die dies tun, erlauben möglicherweise nicht, Tags über die Amazon S3 S3-API abzufragen. In beiden Situationen schlägt Ihre DataSync Übertragungsaufgabe möglicherweise fehl, wenn Sie versuchen, Objekt-Tags zu kopieren.

Sie können dies vermeiden, indem Sie das Kontrollkästchen **Objekt-Tags kopieren** in der DataSync Konsole deaktivieren, wenn Sie Ihre Aufgabe erstellen, starten oder aktualisieren.

### Übertragung auf Amazon S3
<a name="other-cloud-considerations-s3"></a>

Bei der Übertragung auf Amazon S3 DataSync können keine Objekte übertragen werden, die größer als 5 TB sind. DataSynckann auch nur Objektmetadaten bis zu 2 KB kopieren.

## Ihren DataSync Agenten erstellen
<a name="other-cloud-creating-agent"></a>

Ein DataSync Agent ist nur erforderlich, wenn Daten zwischen Speichersystemen in anderen Clouds und Amazon EFS oder Amazon FSx übertragen werden oder wenn Aufgaben im **Basismodus** verwendet werden. Sie benötigen keinen Agenten, um Daten zwischen Speichersystemen in anderen Clouds und Amazon S3 im **erweiterten** Modus zu übertragen. In diesem Abschnitt wird beschrieben, wie Sie einen Agenten auf einer Amazon EC2 EC2-Instance in Ihrer Virtual Private Cloud (VPC) bereitstellen und aktivieren. AWS

**So erstellen Sie einen Amazon EC2 EC2-Agenten**

1. [Stellen Sie einen Amazon EC2 EC2-Agenten](deploy-agents.md#ec2-deploy-agent) bereit.

1. [Wählen Sie einen Service-Endpunkt](choose-service-endpoint.md), mit AWS dem der Agent kommuniziert.

   In diesem Fall empfehlen wir die Verwendung eines VPC-Dienstendpunkts.

1. Konfigurieren Sie Ihr Netzwerk so, dass es mit [VPC-Dienstendpunkten](datasync-network.md#using-vpc-endpoint) funktioniert.

1. [Aktivieren Sie den Agenten](activate-agent.md).

## Erstellen Sie einen Übertragungsort für Ihren anderen Cloud-Objektspeicher
<a name="creating-other-cloud-location-how-to"></a>

Sie können so konfigurieren DataSync , dass Ihr Cloud-Objektspeicher als Quell- oder Zielort verwendet wird.

**Bevor Sie beginnen**  
Stellen Sie sicher, dass Sie wissen, [wie DataSync auf Ihren Cloud-Objektspeicher zugegriffen wird](#other-cloud-access). Sie benötigen außerdem einen [DataSync Agenten](#other-cloud-creating-agent), der eine Verbindung zu Ihrem Cloud-Objektspeicher herstellen kann.

1. Öffnen Sie die AWS DataSync Konsole unter [https://console.aws.amazon.com/datasync/](https://console.aws.amazon.com/datasync/).

1. Erweitern Sie im linken Navigationsbereich die Option **Datenübertragung** und wählen Sie dann **Standorte** und **Standort erstellen** aus.

1. Wählen Sie als **Standorttyp** die Option **Objektspeicher** aus.

1. Geben Sie für **Server** den [Endpunkt](#other-cloud-permissions) ein, über den Sie auf Ihren Cloud-Objektspeicher zugreifen DataSync können:
   + **Wasabi Cloud Storage** – `S3.region.wasabisys.com`
   + **DigitalOcean Spaces** – `region.digitaloceanspaces.com`
   + **Oracle Cloud Infrastructure Object Storage** – `namespace.compat.objectstorage.region.oraclecloud.com`
   + **Cloudflare R2 Storage** – `account-id.r2.cloudflarestorage.com`
   + **Backblaze B2 Cloud Storage** – `S3.region.backblazeb2.com`
   + **NAVER Cloud Object Storage**— `region.object.ncloudstorage.com` (die meisten Regionen)
   + **Alibaba Cloud Object Storage Service** – `region.aliyuncs.com`
   + **IBM Cloud Object Storage** – `s3.region.cloud-object-storage.appdomain.cloud`
   + **Seagate Lyve Cloud** – `s3.region.lyvecloud.seagate.com`

1. Geben Sie als **Bucket-Namen** den Namen des Object-Storage-Buckets ein, in den oder von dem Sie Daten übertragen.

1. Geben Sie für **Ordner** ein Objektpräfix ein. DataSync überträgt nur Objekte mit diesem Präfix.

1. Wenn für Ihre Übertragung ein Agent erforderlich ist, wählen Sie **Agenten verwenden** und dann den DataSync Agenten aus, der eine Verbindung zu Ihrem Cloud-Objektspeicher herstellen kann.

1. Erweitern Sie **Additional settings** (Zusätzliche Einstellungen). Wählen Sie als **Serverprotokoll** **HTTPS** aus. Wählen Sie **443** für **Serverport** aus.

1. Scrollen Sie nach unten zum Abschnitt **Authentifizierung**. Vergewissern Sie sich, dass das Kontrollkästchen **Anmeldeinformationen erforderlich** aktiviert ist, und geben Sie dann DataSync Ihre [Speicheranmeldedaten ein](#other-cloud-credentials).
   + Geben Sie **unter Zugriffsschlüssel** die ID für den Zugriff auf Ihren Cloud-Objektspeicher ein.
   + Geben Sie **unter Geheimer Schlüssel** den geheimen Schlüssel für den Zugriff auf Ihren Cloud-Objektspeicher ein. Sie können den Schlüssel entweder direkt eingeben oder ein AWS Secrets Manager Geheimnis angeben, das den Schlüssel enthält. Weitere Informationen finden Sie unter [Bereitstellen von Anmeldeinformationen für Speicherorte](https://docs.aws.amazon.com/datasync/latest/userguide/location-credentials.html).

1. (Optional) Geben Sie Werte für die Felder **Schlüssel** und **Wert** ein, um den Speicherort zu kennzeichnen.

   Mithilfe von Stichwörtern können Sie Ihre AWS Ressourcen verwalten, filtern und nach ihnen suchen. Wir empfehlen, zumindest ein Namensschild für Ihren Standort zu erstellen. 

1. Wählen Sie **Standort erstellen** aus.

## Nächste Schritte
<a name="other-cloud-location-next-steps"></a>

Nachdem Sie mit der Erstellung eines DataSync Speicherorts für Ihren Cloud-Objektspeicher fertig sind, können Sie mit der Einrichtung Ihrer Übertragung fortfahren. Hier sind einige der nächsten Schritte, die Sie berücksichtigen sollten:

1. Falls Sie dies noch nicht getan haben, [erstellen Sie einen anderen Speicherort](transferring-aws-storage.md), an den Sie Ihre Daten übertragen möchten oder von dort aus AWS.

1. Erfahren Sie, DataSync [wie mit Metadaten und speziellen Dateien](metadata-copied.md) für Objektspeicherorte umgegangen wird.

1. Konfigurieren Sie, wie Ihre Daten übertragen werden. Vielleicht möchten Sie beispielsweise nur [eine Teilmenge Ihrer Daten übertragen](filtering.md).
**Wichtig**  
Stellen Sie sicher, dass Sie konfigurieren, wie Objekt-Tags korrekt DataSync kopiert werden. Weitere Informationen finden Sie unter Überlegungen zu [Objekt-Tags](#other-cloud-considerations-object-tags).

1. [Starte deine Übertragung](run-task.md). 

 