

Die vorliegende Übersetzung wurde maschinell erstellt. Im Falle eines Konflikts oder eines Widerspruchs zwischen dieser übersetzten Fassung und der englischen Fassung (einschließlich infolge von Verzögerungen bei der Übersetzung) ist die englische Fassung maßgeblich.

# Trainingsdaten in Amazon Personalize Personalize-Datensätze importieren
<a name="import-data"></a>

Nachdem Sie die [Erstellung eines Schemas und eines Datensatzes](data-prep-creating-datasets.md) abgeschlossen haben, können Sie Ihre Trainingsdaten in den Datensatz importieren. Wenn du Daten importierst, kannst du wählen, ob du Datensätze in großen Mengen, einzeln oder beides importieren möchtest.
+ Bei Massenimporten wird eine große Anzahl historischer Datensätze gleichzeitig importiert. Sie können Massendaten selbst vorbereiten und sie direkt aus einer CSV-Datei in Amazon S3 in Amazon Personalize importieren. Informationen zur Vorbereitung Ihrer Daten finden Sie unter[Vorbereiten von Trainingsdaten für Amazon Personalize](preparing-training-data.md). Wenn Sie Hilfe bei der Vorbereitung Ihrer Daten benötigen, können Sie SageMaker AI Data Wrangler verwenden, um Ihre Interaktions-, Benutzer- und Artikeldaten in großen Mengen vorzubereiten und zu importieren. Weitere Informationen finden Sie unter [Vorbereiten und Importieren von Massendaten mit Amazon SageMaker AI Data Wrangler](preparing-importing-with-data-wrangler.md).
+ Wenn Sie keine Massendaten haben, können Sie einzelne Importvorgänge verwenden, um Daten zu sammeln und Ereignisse zu streamen, bis Sie die Schulungsanforderungen von Amazon Personalize und die Datenanforderungen Ihres Domain-Anwendungsfalls oder -Rezepts erfüllen. Informationen zum Aufzeichnen von Ereignissen finden Sie unter[Aufzeichnung von Ereignissen in Echtzeit zur Beeinflussung von Empfehlungen](recording-events.md). Informationen zum Importieren einzelner Datensätze finden Sie unter[Einzelne Datensätze in einen Amazon Personalize importieren](incremental-data-updates.md). 

 Nachdem Sie Daten in einen Amazon Personalize Personalize-Datensatz importiert haben, können Sie [ihn analysieren](analyzing-data.md), in [einen Amazon S3 S3-Bucket exportieren](export-data.md), [aktualisieren](updating-datasets.md) oder [löschen](delete-dataset.md), indem Sie den Datensatz löschen.

Wenn Sie einen Artikel, einen Benutzer oder eine Aktion mit derselben ID wie ein Datensatz importieren, der sich bereits in Ihrem Datensatz befindet, ersetzt Amazon Personalize ihn durch den neuen Datensatz. Wenn Sie zwei Artikelinteraktionen oder Aktionsinteraktionsereignisse mit exakt demselben Zeitstempel und identischen Eigenschaften aufzeichnen, speichert Amazon Personalize nur eines der Ereignisse.

 Wenn Ihr Katalog wächst, aktualisieren Sie Ihre historischen Daten mit zusätzlichen Import von Massen- oder Einzeldaten. Um Empfehlungen in Echtzeit zu erhalten, sollten Sie Ihren Datensatz mit Artikelinteraktionen über das Verhalten Ihrer Nutzer auf dem neuesten Stand halten. Sie tun dies, indem Sie *[Interaktionsereignisse](https://docs.aws.amazon.com/glossary/latest/reference/glos-chap.html#event)* in Echtzeit mit einem Event-Tracker und dem [PutEvents](API_UBS_PutEvents.md) Vorgang aufzeichnen. Weitere Informationen finden Sie unter [Aufzeichnung von Ereignissen in Echtzeit zur Beeinflussung von Empfehlungen](recording-events.md). 

 Nachdem Sie Ihre Daten importiert haben, können Sie Domain-Empfehlungen (für Domain-Datensatzgruppen) oder benutzerdefinierte Ressourcen (für benutzerdefinierte Datensatzgruppen) erstellen, um ein Modell anhand Ihrer Daten zu trainieren. Sie verwenden diese Ressourcen, um Empfehlungen zu generieren. Für weitere Informationen siehe [Domain-Empfehlungen in Amazon Personalize](creating-recommenders.md) oder [Maßgeschneiderte Ressourcen für das Training und die Bereitstellung von Amazon Personalize Personalize-Modellen](create-custom-resources.md). 

**Topics**
+ [

# Import von Massendaten in Amazon Personalize mit einem Datensatz-Importjob
](bulk-data-import-step.md)
+ [

# Vorbereiten und Importieren von Massendaten mit Amazon SageMaker AI Data Wrangler
](preparing-importing-with-data-wrangler.md)
+ [

# Einzelne Datensätze in einen Amazon Personalize importieren
](incremental-data-updates.md)

# Import von Massendaten in Amazon Personalize mit einem Datensatz-Importjob
<a name="bulk-data-import-step"></a>

Nachdem Sie Ihre Eingabedaten formatiert (siehe[Vorbereiten von Trainingsdaten für Amazon Personalize](preparing-training-data.md)) und den Vorgang abgeschlossen haben[Erstellen eines Schemas und eines Datensatzes](data-prep-creating-datasets.md), können Sie Ihre Massendaten mit einem Datensatz-Importauftrag importieren. Ein *Datensatz-Importjob* ist ein Massenimport-Tool, das einen Datensatz mit Daten aus Amazon S3 füllt.

 Um Daten aus Amazon S3 zu importieren, müssen sich Ihre CSV-Dateien in einem Amazon S3 S3-Bucket befinden und Sie müssen Amazon Personalize die Erlaubnis erteilen, auf Ihre Amazon S3 S3-Ressourcen zuzugreifen: 
+ Informationen zum Hochladen von Dateien auf Amazon S3 finden Sie unter [Hochladen von Dateien und Ordnern mithilfe von Drag & Drop](https://docs.aws.amazon.com/AmazonS3/latest/user-guide/upload-objects.html) im Amazon Simple Storage Service-Benutzerhandbuch.
+ Informationen darüber, wie Sie Amazon Personalize Zugriff auf Ihre Dateien in Amazon S3 gewähren, finden Sie unter[Amazon Personalize Zugriff auf Amazon S3 S3-Ressourcen gewähren](granting-personalize-s3-access.md).

   Wenn Sie AWS Key Management Service (AWS KMS) für die Verschlüsselung verwenden, müssen Sie Amazon Personalize und Ihrer Amazon Personalize IAM-Servicerolle die Erlaubnis zur Verwendung Ihres Schlüssels erteilen. Weitere Informationen finden Sie unter [Amazon Personalize die Erlaubnis zur Verwendung Ihres AWS KMS Schlüssels erteilen](granting-personalize-key-access.md).

Sie können einen Datensatz-Importauftrag mit der Amazon Personalize Personalize-Konsole, AWS Command Line Interface (AWS CLI) oder AWS SDKs erstellen. Wenn Sie zuvor einen Datensatz-Importauftrag für einen Datensatz erstellt haben, können Sie einen neuen Datensatz-Importjob verwenden, um die vorhandenen Massendaten zu ergänzen oder zu ersetzen. Weitere Informationen finden Sie unter [Aktualisierung von Daten in Datensätzen nach dem Training](updating-datasets.md). 

Wenn Sie einen Artikel, einen Benutzer oder eine Aktion mit derselben ID wie ein Datensatz importieren, der sich bereits in Ihrem Datensatz befindet, ersetzt Amazon Personalize ihn durch den neuen Datensatz. Wenn Sie zwei Artikelinteraktionen oder Aktionsinteraktionsereignisse mit exakt demselben Zeitstempel und identischen Eigenschaften aufzeichnen, speichert Amazon Personalize nur eines der Ereignisse.

 Nachdem Sie Ihre Daten importiert haben, können Sie Domain-Empfehlungen (für Domain-Datensatzgruppen) oder benutzerdefinierte Ressourcen (für benutzerdefinierte Datensatzgruppen) erstellen, um ein Modell anhand Ihrer Daten zu trainieren. Sie verwenden diese Ressourcen, um Empfehlungen zu generieren. Für weitere Informationen siehe [Domain-Empfehlungen in Amazon Personalize](creating-recommenders.md) oder [Maßgeschneiderte Ressourcen für das Training und die Bereitstellung von Amazon Personalize Personalize-Modellen](create-custom-resources.md). 



**Topics**
+ [

## Modi importieren
](#bulk-import-modes)
+ [

## Einen Job zum Importieren von Datensätzen erstellen (Konsole)
](#bulk-data-import-console)
+ [

## Einen Job zum Importieren von Datensätzen erstellen (AWS CLI)
](#bulk-data-import-cli)
+ [

## Einen Job zum Importieren von Datensätzen erstellen (AWS SDKs)
](#python-import-ex)

## Modi importieren
<a name="bulk-import-modes"></a>

Wenn Sie bereits einen Importauftrag für den Datensatz erstellt haben, können Sie konfigurieren, wie Amazon Personalize Ihre neuen Datensätze hinzufügt. Dazu geben Sie einen Importmodus für Ihren Datensatz-Importjob an. Wenn Sie keine Massendatensätze importiert haben, ist das Feld **Importmodus** in der Konsole nicht verfügbar und Sie können es nur `FULL` im `CreateDatasetImportJob` API-Vorgang angeben. Die Standardeinstellung ist ein vollständiger Ersatz.
+ Um alle vorhandenen Massendaten in Ihrem Datensatz zu überschreiben, wählen Sie in der Amazon Personalize Personalize-Konsole die Option **Bestehende Daten ersetzen** oder `FULL` im [CreateDatasetImportJob](API_CreateDatasetImportJob.md) API-Vorgang angeben. Dadurch werden keine Daten ersetzt, die Sie einzeln importiert haben, einschließlich Ereignisse, die in Echtzeit aufgezeichnet wurden.
+ Um die Datensätze an die vorhandenen Daten in Ihrem Datensatz anzuhängen, wählen Sie **Zu vorhandenen Daten hinzufügen** oder `INCREMENTAL` im `CreateDatasetImportJob` API-Vorgang angeben aus. Amazon Personalize ersetzt jeden Datensatz mit derselben ID durch den neuen.
**Anmerkung**  
Um mit einem Datensatz-Importjob Daten an einen Datensatz mit Artikelinteraktionen oder Aktionsinteraktionen anzuhängen, benötigen Sie mindestens 1000 neue Datensätze für Artikelinteraktionen oder Aktionsinteraktionen.

## Einen Job zum Importieren von Datensätzen erstellen (Konsole)
<a name="bulk-data-import-console"></a>

**Wichtig**  
Standardmäßig ersetzt ein Datensatz-Importjob alle vorhandenen Daten in dem Datensatz, den Sie in großen Mengen importiert haben. Wenn Sie bereits Massendaten importiert haben, können Sie Daten anhängen, indem Sie den [Importmodus](#bulk-import-modes) des Jobs ändern.

 Um mit der Amazon Personalize-Konsole Massendatensätze in einen Datensatz zu importieren, erstellen Sie einen Datensatz-Import-Job mit einem Namen, der IAM-Servicerolle und dem Speicherort Ihrer Daten.

Wenn Sie Ihren Datensatz gerade in erstellt haben[Erstellen eines Schemas und eines Datensatzes](data-prep-creating-datasets.md), fahren Sie mit Schritt 5 fort.

**Um Massendatensätze zu importieren (Konsole)**

1. Öffnen Sie zu [https://console.aws.amazon.com/personalize/Hause](https://console.aws.amazon.com/personalize/home) die Amazon Personalize Personalize-Konsole und melden Sie sich bei Ihrem Konto an.

1.  Wählen Sie auf der Seite **Datensatzgruppen** Ihre Datensatzgruppe aus. Die **Übersicht** der Datensatzgruppe wird angezeigt.

1. Wählen Sie im Navigationsbereich **Datensätze** und dann den Datensatz aus, in den Sie Massendaten importieren möchten.

1. Wählen Sie unter **Datensatz-Importaufträge** die Option **Datensatz-Importjob erstellen** aus.

1. Wenn dies Ihr erster Datensatz-Importauftrag ist, wählen Sie für **Datenimportquelle** die Option **Daten aus S3 importieren** aus.

1. Geben Sie unter **Name des Datensatz-Import-Jobs** einen Namen für Ihren Importjob an.

1. Wenn Sie bereits Massendaten importiert haben, wählen Sie **im Importmodus** aus, wie der Datensatz aktualisiert werden soll. Wählen Sie entweder **Bestehende Daten ersetzen** oder **Zu vorhandenen Daten hinzufügen**. Diese Option wird nicht angezeigt, wenn es sich um Ihren ersten Job für den Datensatz handelt. Weitere Informationen finden Sie unter [Aktualisierung von Daten in Datensätzen nach dem Training](updating-datasets.md).

1. Geben **Sie unter Datenimportquelle** für **Datenstandort** an, wo Ihre Datendatei in Amazon S3 gespeichert ist. Verwenden Sie die folgende Syntax:

   **s3:/amzn-s3-demo-bucket/<folder path>/<CSV filename>**

   Wenn sich Ihre CSV-Dateien in einem Ordner in Ihrem Amazon S3 S3-Bucket befinden und Sie mit einem Datensatz-Importjob mehrere CSV-Dateien in einen Datensatz hochladen möchten, können Sie den Pfad zu dem Ordner angeben. Amazon Personalize verwendet nur die Dateien in der ersten Ebene Ihres Ordners, es verwendet keine Daten in Unterordnern. Verwenden Sie die folgende Syntax mit einem `/` nach dem Ordnernamen:

   **s3:/amzn-s3-demo-bucket/<folder path>/**

1. Wählen Sie unter **IAM-Rolle** aus, ob Sie entweder eine neue Rolle erstellen oder eine vorhandene verwenden möchten. Wenn Sie die Voraussetzungen erfüllt haben, wählen Sie **Bestehende Servicerolle verwenden aus und geben Sie die Rolle** an, in [Eine IAM-Rolle für Amazon Personalize erstellen](set-up-required-permissions.md#set-up-create-role-with-permissions) der Sie sie erstellt haben. 

1. Wenn Sie eine Metrik-Attribution erstellt haben und Metriken zu diesem Job in Amazon S3 veröffentlichen möchten, wählen Sie unter **Event-Metriken in S3 veröffentlichen** die Option **Metriken für diesen Importjob veröffentlichen** aus. 

   Wenn Sie noch keine erstellt haben und Metriken für diesen Job veröffentlichen möchten, wählen Sie **Metrik-Attribution erstellen** aus, um eine neue Zuordnung auf einer anderen Registerkarte zu erstellen. Nachdem Sie die Metrik-Attribution erstellt haben, können Sie zu diesem Bildschirm zurückkehren und die Erstellung des Importjobs abschließen. 

   Weitere Informationen zu metrischen Attributionen finden Sie unter. [Messung der Wirkung von Amazon Personalize Personalize-Empfehlungen](measuring-recommendation-impact.md)

1. Fügen Sie für **Tags** optional beliebige Tags hinzu. Weitere Informationen zum Taggen von Amazon Personalize Personalize-Ressourcen finden Sie unter. [Taggen von Amazon Personalize Personalize-Ressourcen](tagging-resources.md)

1. Wählen Sie **Start import (Import starten)**. Der Datenimportauftrag beginnt und die Seite **Dashboard Overview (Dashboard-Übersicht)** wird angezeigt. Der Dataset-Importvorgang ist abgeschlossen, wenn der Status als AKTIV angezeigt wird. Nachdem Sie Daten in einen Amazon Personalize Personalize-Datensatz importiert haben, können Sie [ihn analysieren](analyzing-data.md), in [einen Amazon S3 S3-Bucket exportieren](export-data.md), [aktualisieren](updating-datasets.md) oder [löschen](delete-dataset.md), indem Sie den Datensatz löschen. 

    Nachdem Sie Ihre Daten importiert haben, können Sie Domain-Empfehlungen (für Domain-Datensatzgruppen) oder benutzerdefinierte Ressourcen (für benutzerdefinierte Datensatzgruppen) erstellen, um ein Modell anhand Ihrer Daten zu trainieren. Sie verwenden diese Ressourcen, um Empfehlungen zu generieren. Für weitere Informationen siehe [Domain-Empfehlungen in Amazon Personalize](creating-recommenders.md) oder [Maßgeschneiderte Ressourcen für das Training und die Bereitstellung von Amazon Personalize Personalize-Modellen](create-custom-resources.md). 

## Einen Job zum Importieren von Datensätzen erstellen (AWS CLI)
<a name="bulk-data-import-cli"></a>

**Wichtig**  
Standardmäßig ersetzt ein Datensatz-Importjob alle vorhandenen Daten in dem Datensatz, den Sie in großen Mengen importiert haben. Wenn Sie bereits Massendaten importiert haben, können Sie Daten anhängen, indem Sie den [Importmodus](#bulk-import-modes) des Jobs ändern.

 Um Massendatensätze mit dem zu importieren AWS CLI, erstellen Sie mit dem [CreateDatasetImportJob](API_CreateDatasetImportJob.md) Befehl einen Job zum Importieren von Datensätzen. Wenn Sie zuvor einen Datensatz-Importauftrag für einen Datensatz erstellt haben, können Sie mithilfe des Importmodus-Parameters angeben, wie die neuen Daten hinzugefügt werden sollen. Weitere Informationen zum Aktualisieren vorhandener Massendaten finden Sie unter[Aktualisierung von Daten in Datensätzen nach dem Training](updating-datasets.md).

**Massendatensätze importieren (AWS CLI)**

1. Erstellen Sie den Dataset-Importauftrag, indem Sie den folgenden Befehl ausführen. Geben Sie den Amazon-Ressourcennamen (ARN) für Ihren Datensatz an und geben Sie den Pfad zu Ihrem Amazon S3-Bucket an, in dem Sie die Trainingsdaten gespeichert haben. Verwenden Sie die folgende Syntax für den Pfad:

   **s3:/amzn-s3-demo-bucket/<folder path>/<CSV filename>**

   Wenn sich Ihre CSV-Dateien in einem Ordner in Ihrem Amazon S3 S3-Bucket befinden und Sie mit einem Datensatz-Importjob mehrere CSV-Dateien in einen Datensatz hochladen möchten, können Sie den Pfad zu dem Ordner angeben. Amazon Personalize verwendet nur die Dateien in der ersten Ebene Ihres Ordners, es verwendet keine Daten in Unterordnern. Verwenden Sie die folgende Syntax mit einem `/` nach dem Ordnernamen:

   **s3:/amzn-s3-demo-bucket/<folder path>/**

   Geben Sie die AWS Identity and Access Management (IAM) -Rolle Amazon Resource Name (ARN) an, in [Eine IAM-Rolle für Amazon Personalize erstellen](set-up-required-permissions.md#set-up-create-role-with-permissions) der Sie erstellt haben. Der Standardwert `import-mode` ist `FULL`. Weitere Informationen finden Sie unter [Aktualisierung von Daten in Datensätzen nach dem Training](updating-datasets.md). Weitere Informationen über den Vorgang finden Sie im Abschnitt [CreateDatasetImportJob](API_CreateDatasetImportJob.md).

   ```
   aws personalize create-dataset-import-job \
   --job-name dataset import job name \
   --dataset-arn dataset arn \
   --data-source dataLocation=s3://amzn-s3-demo-bucket/filename \
   --role-arn roleArn \
   --import-mode FULL
   ```

   Der ARN des Datensatz-Importauftrags wird angezeigt, wie im folgenden Beispiel gezeigt.

   ```
   {
     "datasetImportJobArn": "arn:aws:personalize:us-west-2:acct-id:dataset-import-job/DatasetImportJobName"
   }
   ```

1. Überprüfen Sie mit dem Befehl `describe-dataset-import-job` den Status. Geben Sie den Dataset-Importauftrag-ARN an, der im vorherigen Schritt zurückgegeben wurde. Weitere Informationen über den Vorgang finden Sie im Abschnitt [DescribeDatasetImportJob](API_DescribeDatasetImportJob.md).

   ```
   aws personalize describe-dataset-import-job \
   --dataset-import-job-arn dataset import job arn
   ```

   Die Eigenschaften des Dataset-Importauftrags, einschließlich des Erstellungsstatus, werden angezeigt. Anfänglich wird das als CREATE PENDING `status` angezeigt.

   ```
   {
     "datasetImportJob": {
         "jobName": "Dataset Import job name",
         "datasetImportJobArn": "arn:aws:personalize:us-west-2:acct-id:dataset-import-job/DatasetImportJobArn",
         "datasetArn": "arn:aws:personalize:us-west-2:acct-id:dataset/DatasetGroupName/INTERACTIONS",
         "dataSource": {
             "dataLocation": "s3://amzn-s3-demo-bucket/ratings.csv"
         },
         "importMode": "FULL",
         "roleArn": "role-arn",
         "status": "CREATE PENDING",
         "creationDateTime": 1542392161.837,
         "lastUpdatedDateTime": 1542393013.377
     }
   }
   ```

   Der Dataset-Importvorgang ist abgeschlossen, wenn der Status als AKTIV angezeigt wird. Nachdem Sie Daten in einen Amazon Personalize Personalize-Datensatz importiert haben, können Sie [ihn analysieren](analyzing-data.md), in [einen Amazon S3 S3-Bucket exportieren](export-data.md), [aktualisieren](updating-datasets.md) oder [löschen](delete-dataset.md), indem Sie den Datensatz löschen. 

    Nachdem Sie Ihre Daten importiert haben, können Sie Domain-Empfehlungen (für Domain-Datensatzgruppen) oder benutzerdefinierte Ressourcen (für benutzerdefinierte Datensatzgruppen) erstellen, um ein Modell anhand Ihrer Daten zu trainieren. Sie verwenden diese Ressourcen, um Empfehlungen zu generieren. Für weitere Informationen siehe [Domain-Empfehlungen in Amazon Personalize](creating-recommenders.md) oder [Maßgeschneiderte Ressourcen für das Training und die Bereitstellung von Amazon Personalize Personalize-Modellen](create-custom-resources.md). 

## Einen Job zum Importieren von Datensätzen erstellen (AWS SDKs)
<a name="python-import-ex"></a>

**Wichtig**  
Standardmäßig ersetzt ein Datensatz-Importjob alle vorhandenen Daten in dem Datensatz, den Sie in großen Mengen importiert haben. Wenn Sie bereits Massendaten importiert haben, können Sie Daten anhängen, indem Sie den [Importmodus](#bulk-import-modes) des Jobs ändern.

Um Daten zu importieren, erstellen Sie mit dem [CreateDatasetImportJob](API_CreateDatasetImportJob.md) Vorgang einen Datensatz-Importauftrag. Der folgende Code zeigt, wie Sie einen Datensatz-Importjob erstellen.

Geben Sie den Jobnamen ein, legen Sie `datasetArn` den Amazon-Ressourcennamen (ARN) Ihres Datensatzes und den Pfad `dataLocation` zu Ihrem Amazon S3-Bucket fest, in dem Sie die Trainingsdaten gespeichert haben. Verwenden Sie die folgende Syntax für den Pfad:

**s3:/amzn-s3-demo-bucket/<folder path>/<CSV filename>.csv**

Wenn sich Ihre CSV-Dateien in einem Ordner in Ihrem Amazon S3 S3-Bucket befinden und Sie mit einem Datensatz-Importjob mehrere CSV-Dateien in einen Datensatz hochladen möchten, können Sie den Pfad zu dem Ordner angeben. Amazon Personalize verwendet nur die Dateien in der ersten Ebene Ihres Ordners, es verwendet keine Daten in Unterordnern. Verwenden Sie die folgende Syntax mit einem `/` nach dem Ordnernamen:

**s3:/amzn-s3-demo-bucket/<folder path>/**

Geben Sie für die die `roleArn` AWS Identity and Access Management (IAM) -Rolle an, die Amazon Personalize die Berechtigungen für den Zugriff auf Ihren S3-Bucket erteilt. Siehe [Eine IAM-Rolle für Amazon Personalize erstellen](set-up-required-permissions.md#set-up-create-role-with-permissions). Der Standardwert `importMode` ist `FULL`. Dadurch werden alle Massendaten im Datensatz ersetzt. Um Daten anzuhängen, setzen Sie sie auf`INCREMENTAL`. Weitere Informationen zum Aktualisieren vorhandener Massendaten finden Sie unter[Aktualisierung von Daten in Datensätzen nach dem Training](updating-datasets.md). 

------
#### [ SDK for Python (Boto3) ]

```
import boto3

personalize = boto3.client('personalize')

response = personalize.create_dataset_import_job(
    jobName = 'YourImportJob',
    datasetArn = 'dataset_arn',
    dataSource = {'dataLocation':'s3://amzn-s3-demo-bucket/filename.csv'},
    roleArn = 'role_arn',
    importMode = 'FULL'
)

dsij_arn = response['datasetImportJobArn']

print ('Dataset Import Job arn: ' + dsij_arn)

description = personalize.describe_dataset_import_job(
    datasetImportJobArn = dsij_arn)['datasetImportJob']

print('Name: ' + description['jobName'])
print('ARN: ' + description['datasetImportJobArn'])
print('Status: ' + description['status'])
```

------
#### [ SDK for Java 2.x ]

```
public static String createPersonalizeDatasetImportJob(PersonalizeClient personalizeClient,
                                                      String jobName,
                                                      String datasetArn,
                                                      String s3BucketPath,
                                                      String roleArn,
                                                      ImportMode importMode) {

  long waitInMilliseconds = 60 * 1000;
  String status;
  String datasetImportJobArn;
  
  try {
      DataSource importDataSource = DataSource.builder()
              .dataLocation(s3BucketPath)
              .build();
      
      CreateDatasetImportJobRequest createDatasetImportJobRequest = CreateDatasetImportJobRequest.builder()
              .datasetArn(datasetArn)
              .dataSource(importDataSource)
              .jobName(jobName)
              .roleArn(roleArn)
              .importMode(importMode)
              .build();
  
      datasetImportJobArn = personalizeClient.createDatasetImportJob(createDatasetImportJobRequest)
              .datasetImportJobArn();
      
      DescribeDatasetImportJobRequest describeDatasetImportJobRequest = DescribeDatasetImportJobRequest.builder()
              .datasetImportJobArn(datasetImportJobArn)
              .build();
  
      long maxTime = Instant.now().getEpochSecond() + 3 * 60 * 60;
  
      while (Instant.now().getEpochSecond() < maxTime) {
  
          DatasetImportJob datasetImportJob = personalizeClient
                  .describeDatasetImportJob(describeDatasetImportJobRequest)
                  .datasetImportJob();
  
          status = datasetImportJob.status();
          System.out.println("Dataset import job status: " + status);
  
          if (status.equals("ACTIVE") || status.equals("CREATE FAILED")) {
              break;
          }
          try {
              Thread.sleep(waitInMilliseconds);
          } catch (InterruptedException e) {
              System.out.println(e.getMessage());
          }
      }
      return datasetImportJobArn;
  
  } catch (PersonalizeException e) {
      System.out.println(e.awsErrorDetails().errorMessage());
  }
  return "";
}
```

------
#### [ SDK for JavaScript v3 ]

```
// Get service clients and commands using ES6 syntax.
import { CreateDatasetImportJobCommand, PersonalizeClient } from
  "@aws-sdk/client-personalize";

// create personalizeClient
const personalizeClient = new PersonalizeClient({
  region: "REGION"
});

// Set the dataset import job parameters.
export const datasetImportJobParam = {
  datasetArn: 'DATASET_ARN', /* required */
  dataSource: {  
    dataLocation: 's3://amzn-s3-demo-bucket/<folderName>/<CSVfilename>.csv'  /* required */
  },
  jobName: 'NAME',           /* required */
  roleArn: 'ROLE_ARN',       /* required */
  importMode: "FULL"         /* optional, default is FULL */
};

export const run = async () => {
  try {
    const response = await personalizeClient.send(new CreateDatasetImportJobCommand(datasetImportJobParam));
    console.log("Success", response);
    return response; // For unit tests.
  } catch (err) {
    console.log("Error", err);
  }
};
run();
```

------

Die Antwort des [DescribeDatasetImportJob](API_DescribeDatasetImportJob.md) Vorgangs beinhaltet den Status des Vorgangs.

Sie müssen warten, bis sich der Status in ACTIVE ändert, bevor Sie mithilfe der Daten ein Modell schulen können.

Der Dataset-Importvorgang ist abgeschlossen, wenn der Status als AKTIV angezeigt wird. Nachdem Sie Daten in einen Amazon Personalize Personalize-Datensatz importiert haben, können Sie [ihn analysieren](analyzing-data.md), in [einen Amazon S3 S3-Bucket exportieren](export-data.md), [aktualisieren](updating-datasets.md) oder [löschen](delete-dataset.md), indem Sie den Datensatz löschen. 

 Nachdem Sie Ihre Daten importiert haben, können Sie Domain-Empfehlungen (für Domain-Datensatzgruppen) oder benutzerdefinierte Ressourcen (für benutzerdefinierte Datensatzgruppen) erstellen, um ein Modell anhand Ihrer Daten zu trainieren. Sie verwenden diese Ressourcen, um Empfehlungen zu generieren. Für weitere Informationen siehe [Domain-Empfehlungen in Amazon Personalize](creating-recommenders.md) oder [Maßgeschneiderte Ressourcen für das Training und die Bereitstellung von Amazon Personalize Personalize-Modellen](create-custom-resources.md). 

# Vorbereiten und Importieren von Massendaten mit Amazon SageMaker AI Data Wrangler
<a name="preparing-importing-with-data-wrangler"></a>

**Wichtig**  
Wenn Sie Data Wrangler verwenden, fallen SageMaker Ihnen KI-Kosten an. Eine vollständige Liste der Gebühren und Preise finden Sie auf der Registerkarte Data Wrangler unter [Amazon SageMaker AI-Preisgestaltung](https://aws.amazon.com/sagemaker/pricing/). Um zusätzliche Gebühren zu vermeiden, fahren Sie Ihre Data Wrangler-Instance herunter, wenn Sie fertig sind. Weitere Informationen finden Sie unter Data Wrangler [herunterfahren](https://docs.aws.amazon.com/sagemaker/latest/dg/data-wrangler-shut-down.html). 

Nachdem Sie eine Datensatzgruppe erstellt haben, können Sie Amazon SageMaker AI Data Wrangler (Data Wrangler) verwenden, um Daten aus mehr als 40 Quellen in einen Amazon Personalize-Datensatz zu importieren. Data Wrangler ist eine Funktion von Amazon SageMaker AI Studio Classic, die eine end-to-end Lösung zum Importieren, Vorbereiten, Transformieren und Analysieren von Daten bietet. Sie können Data Wrangler nicht verwenden, um Daten vorzubereiten und in einen Actions-Datensatz oder einen Action-Interaktions-Datensatz zu importieren.

 Wenn Sie Data Wrangler zum Vorbereiten und Importieren von Daten verwenden, verwenden Sie einen Datenfluss. Ein *Datenfluss* definiert eine Reihe von Datenvorbereitungsschritten für maschinelles Lernen, beginnend mit dem Import von Daten. Jedes Mal, wenn Sie Ihrem Flow einen Schritt hinzufügen, ergreift Data Wrangler eine Aktion an Ihren Daten, z. B. transformiert sie oder generiert eine Visualisierung. 

Im Folgenden sind einige der Schritte aufgeführt, die Sie zu Ihrem Schema hinzufügen können, um Daten für Amazon Personalize vorzubereiten:
+ **Einblicke:** Sie können Ihrem Flow spezifische Insight-Schritte von Amazon Personalize hinzufügen. Diese Erkenntnisse können Ihnen helfen, mehr über Ihre Daten zu erfahren und zu erfahren, welche Maßnahmen Sie ergreifen können, um sie zu verbessern.
+ **Visualisierungen:** Sie können Visualisierungsschritte hinzufügen, um Grafiken wie Histogramme und Streudiagramme zu erstellen. Mithilfe von Diagrammen können Sie Probleme in Ihren Daten erkennen, z. B. Ausreißer oder fehlende Werte.
+ **Transformationen:** Sie können spezifische und allgemeine Transformationsschritte von Amazon Personalize verwenden, um sicherzustellen, dass Ihre Daten die Anforderungen von Amazon Personalize erfüllen. Die Amazon Personalize Personalize-Transformation hilft Ihnen, Ihre Datenspalten je nach Amazon Personalize Personalize-Datensatztyp den erforderlichen Spalten zuzuordnen.

Wenn Sie Data Wrangler verlassen müssen, bevor Sie Daten in Amazon Personalize importieren, können Sie zu der Stelle zurückkehren, an der Sie aufgehört haben, indem Sie denselben Datensatztyp wählen, wenn Sie [Data Wrangler von der Amazon Personalize Personalize-Konsole aus starten](dw-launch-dw-from-personalize.md). Oder Sie können direkt über AI Studio Classic auf Data Wrangler zugreifen. SageMaker 

 Wir empfehlen Ihnen, Daten aus Data Wrangler wie folgt in Amazon Personalize zu importieren. Die Transformations-, Visualisierungs- und Analyseschritte sind optional, wiederholbar und können in beliebiger Reihenfolge ausgeführt werden. 

1. **[Berechtigungen einrichten](dw-data-prep-minimum-permissions.md)** — Richten Sie Berechtigungen für Amazon Personalize- und SageMaker AI-Servicerollen ein. Und richten Sie Berechtigungen für Ihre Benutzer ein.

1. **[Starten Sie Data Wrangler in SageMaker AI Studio Classic von der Amazon Personalize-Konsole aus — Verwenden Sie die Amazon Personalize](dw-launch-dw-from-personalize.md)** Personalize-Konsole, um eine SageMaker KI-Domain zu konfigurieren und Data Wrangler in AI Studio Classic zu starten. SageMaker 

1. **[Importieren Sie Ihre Daten in Data Wrangler — Importieren Sie Daten aus über 40 Quellen in Data Wrangler](dw-import-data.md)**. Zu den Quellen gehören AWS Dienste wie Amazon Redshift, Amazon EMR oder Amazon Athena sowie Drittanbieter wie Snowflake oder. DataBricks

1. **[Transformieren Sie Ihre Daten](dw-transform-data.md)** — Verwenden Sie Data Wrangler, um Ihre Daten so zu transformieren, dass sie die Anforderungen von Amazon Personalize erfüllen.

1. **[Visualisieren und analysieren Sie Ihre Daten](dw-analyze-data.md)** — Verwenden Sie Data Wrangler, um Ihre Daten zu visualisieren und sie mithilfe von Amazon Personalize-spezifischen Erkenntnissen zu analysieren.

1. **[Daten verarbeiten und in Amazon Personalize importieren](dw-export-data.md)** — Verwenden Sie ein SageMaker AI Studio Classic Jupyter-Notizbuch, um Ihre verarbeiteten Daten in Amazon Personalize zu importieren.

## Zusätzliche Informationen
<a name="dw-additional-info"></a>

Die folgenden Ressourcen bieten zusätzliche Informationen zur Verwendung von Amazon SageMaker AI Data Wrangler und Amazon Personalize.
+ Ein Tutorial, das Sie durch die Verarbeitung und Transformation eines Beispieldatensatzes führt, finden Sie unter [Demo: Data Wrangler Titanic Dataset Walkthrough](https://docs.aws.amazon.com/sagemaker/latest/dg/data-wrangler-getting-started.html#data-wrangler-getting-started-demo) im *Amazon SageMaker * AI Developer Guide. In diesem Tutorial werden die Felder und Funktionen von Data Wrangler vorgestellt.
+ Informationen zum Onboarding in Amazon SageMaker AI-Domains finden Sie unter [Quick boarding to Amazon SageMaker AI Domain](https://docs.aws.amazon.com/sagemaker/latest/dg/onboard-quick-start.html) im *Amazon SageMaker AI Developer Guide*.
+ Informationen zu den Datenanforderungen von Amazon Personalize finden Sie unter[Vorbereiten von Trainingsdaten für Amazon Personalize](preparing-training-data.md).

# Einrichten von Berechtigungen
<a name="dw-data-prep-minimum-permissions"></a>

Um Daten mit Data Wrangler vorzubereiten, müssen Sie die folgenden Berechtigungen einrichten: 
+ **Erstellen Sie eine Servicerolle für Amazon Personalize:** Falls Sie dies noch nicht getan haben, folgen Sie den Anweisungen unter [Amazon Personalize einrichten](setup.md) So erstellen Sie eine IAM-Servicerolle für Amazon Personalize. Diese Rolle muss über `GetObject` `ListBucket` Berechtigungen für die Amazon S3 S3-Buckets verfügen, in denen Ihre verarbeiteten Daten gespeichert werden. Und sie muss berechtigt sein, alle AWS KMS Schlüssel zu verwenden.

   Informationen darüber, wie Sie Amazon Personalize Zugriff auf Ihre Amazon S3 S3-Buckets gewähren, finden Sie unter. [Amazon Personalize Zugriff auf Amazon S3 S3-Ressourcen gewähren](granting-personalize-s3-access.md) Informationen darüber, wie Sie Amazon Personalize Zugriff auf Ihre AWS KMS Schlüssel gewähren, finden Sie unter[Amazon Personalize die Erlaubnis zur Verwendung Ihres AWS KMS Schlüssels erteilen](granting-personalize-key-access.md). 
+  **Erstellen Sie einen Administratorbenutzer mit SageMaker KI-Berechtigungen:** Ihr Administrator muss vollen Zugriff auf SageMaker KI haben und in der Lage sein, eine SageMaker AI-Domain zu erstellen. Weitere Informationen finden Sie unter [Erstellen eines Administratorbenutzers und einer Administratorgruppe](https://docs.aws.amazon.com/sagemaker/latest/dg/gs-set-up.html#gs-account-user) im *Amazon SageMaker AI Developer Guide*. 
+ **Erstellen Sie eine SageMaker KI-Ausführungsrolle:** Erstellen Sie eine SageMaker KI-Ausführungsrolle mit Zugriff auf SageMaker KI-Ressourcen und Amazon Personalize Personalize-Datenimportoperationen. Der SageMaker KI-Ausführungsrolle muss die [https://console.aws.amazon.com/iam/home?#/policies/arn:aws:iam::aws:policy/AmazonSageMakerFullAccess](https://console.aws.amazon.com/iam/home?#/policies/arn:aws:iam::aws:policy/AmazonSageMakerFullAccess)Richtlinie beigefügt sein. *Wenn Sie detailliertere Data Wrangler-Berechtigungen benötigen, finden Sie weitere Informationen unter [Data Wrangler Security and Permissions](https://docs.aws.amazon.com/sagemaker/latest/dg/data-wrangler-security.html#data-wrangler-security-iam-policy) im Amazon AI Developer Guide. SageMaker * [Weitere Informationen zu KI-Rollen finden Sie unter SageMaker KI-Rollen. SageMaker ](https://docs.aws.amazon.com/sagemaker/latest/dg/sagemaker-roles.html) 

  Um Zugriff auf Amazon Personalize Personalize-Datenimportvorgänge zu gewähren, fügen Sie der SageMaker AI-Ausführungsrolle die folgende IAM-Richtlinie hinzu. Diese Richtlinie gewährt die erforderlichen Berechtigungen, um Daten in Amazon Personalize zu importieren und eine Richtlinie an Ihren Amazon S3 S3-Bucket anzuhängen. Und es gewährt `PassRole` Berechtigungen, wenn es sich bei dem Service um Amazon Personalize handelt. Aktualisieren Sie Amazon S3 `amzn-s3-demo-bucket` auf den Namen des Amazon S3 S3-Buckets, den Sie als Ziel für Ihre formatierten Daten verwenden möchten, nachdem Sie sie mit Data Wrangler vorbereitet haben. 

------
#### [ JSON ]

****  

  ```
  {
      "Version":"2012-10-17",		 	 	 
      "Statement": [
          {
              "Effect": "Allow",
              "Action": [
                  "personalize:Create*",
                  "personalize:List*",
                  "personalize:Describe*"
              ],
              "Resource": "*"
          },
          {
              "Effect": "Allow",
              "Action": [
                  "s3:PutBucketPolicy"
              ],
              "Resource": [
                  "arn:aws:s3:::amzn-s3-demo-bucket",
                  "arn:aws:s3:::amzn-s3-demo-bucket/*"
              ]
          },
          {
              "Effect": "Allow",
              "Action": [
                  "iam:PassRole"
              ],
              "Resource": "*",
              "Condition": {
                  "StringEquals": {
                      "iam:PassedToService": "personalize.amazonaws.com"
                  }
              }
          }
      ]
  }
  ```

------

  *Informationen zur Erstellung einer IAM-Richtlinie finden Sie unter [Erstellen von IAM-Richtlinien im IAM-Benutzerhandbuch](https://docs.aws.amazon.com/IAM/latest/UserGuide/access_policies_create.html).* *Informationen zum Anhängen einer IAM-Richtlinie an eine Rolle finden Sie unter [Hinzufügen und Entfernen von IAM-Identitätsberechtigungen im IAM-Benutzerhandbuch](https://docs.aws.amazon.com/IAM/latest/UserGuide/access_policies_manage-attach-detach.html).*

# Data Wrangler von Amazon Personalize aus starten
<a name="dw-launch-dw-from-personalize"></a>

Um Data Wrangler von Amazon Personalize aus zu starten, verwenden Sie die Amazon Personalize Personalize-Konsole, um eine SageMaker KI-Domain zu konfigurieren und Data Wrangler zu starten. 

**Um Data Wrangler von Amazon Personalize aus zu starten**

1. Öffnen Sie zu [https://console.aws.amazon.com/personalize/Hause](https://console.aws.amazon.com/personalize/home) die Amazon Personalize Personalize-Konsole und melden Sie sich bei Ihrem Konto an.

1. Wählen Sie auf der Seite **Datensatzgruppen** Ihre Datensatzgruppe aus.

1. Wählen Sie unter **Datensätze einrichten** die Option **Datensatz erstellen** und wählen Sie den Typ des zu erstellenden Datensatzes aus. Sie können Data Wrangler nicht verwenden, um einen Aktionsdatensatz oder einen Aktionsinteraktionen-Datensatz vorzubereiten.

1. **Wählen Sie **Daten mithilfe von Data Wrangler importieren** und dann Weiter.**

1. Wählen Sie für **SageMaker Domain** aus, ob Sie eine bestehende Domain verwenden oder eine neue erstellen möchten. Sie benötigen eine SageMaker AI-Domain, um auf Data Wrangler in SageMaker AI Studio Classic zugreifen zu können. Informationen zu Domains und Benutzerprofilen finden Sie unter [SageMaker AI Domain](https://docs.aws.amazon.com/sagemaker/latest/dg/sm-domain.html) im *Amazon SageMaker AI Developer Guide*.

1. Um eine bestehende Domain zu verwenden, wählen Sie eine **SageMaker AI-Domain** und ein **Benutzerprofil** aus, um die Domain zu konfigurieren.

1. Um eine neue Domain zu erstellen:
   + Geben Sie der neuen Domain einen Namen.
   + Wählen Sie einen **Benutzerprofilnamen**.
   +  Wählen Sie für die **Ausführungsrolle** die Rolle aus, in der Sie sie erstellt haben[Einrichten von Berechtigungen](dw-data-prep-minimum-permissions.md). Oder, falls Sie über die CreateRole erforderlichen Berechtigungen verfügen, erstellen Sie mit dem Assistenten zur Rollenerstellung eine neue Rolle. Der Rolle, die Sie verwenden, muss die `AmazonSageMakerFullAccess` Richtlinie angehängt sein. 

1. Wählen Sie **Weiter** aus. Wenn Sie eine neue Domain erstellen, beginnt SageMaker AI mit der Erstellung Ihrer Domain. Das kann bis zu zehn Minuten dauern.

1. Überprüfen Sie die Details für Ihre SageMaker AI-Domain.

1. Wählen Sie **Daten mit Data Wrangler importieren**. SageMaker AI Studio Classic beginnt mit der Erstellung Ihrer Umgebung. Wenn Sie fertig sind, wird die **Datenflussseite** von Data Wrangler in SageMaker AI Studio Classic auf einer neuen Registerkarte geöffnet. Es kann bis zu fünf Minuten dauern, bis SageMaker AI Studio Classic die Erstellung Ihrer Umgebung abgeschlossen hat. Wenn der Vorgang abgeschlossen ist, können Sie mit dem Import von Daten in Data Wrangler beginnen. Weitere Informationen finden Sie unter [Daten in Data Wrangler importieren](dw-import-data.md).

# Daten in Data Wrangler importieren
<a name="dw-import-data"></a>

 Nachdem Sie eine SageMaker AI-Domain konfiguriert und Data Wrangler auf einer neuen Registerkarte gestartet haben, sind Sie bereit, Daten aus Ihrer Quelle in Data Wrangler zu importieren. Wenn Sie Data Wrangler verwenden, um Daten für Amazon Personalize vorzubereiten, importieren Sie jeweils einen Datensatz. Wir empfehlen, mit einem Datensatz für Artikelinteraktionen zu beginnen. Sie können Data Wrangler nicht verwenden, um einen Aktionsdatensatz oder einen Datensatz mit Aktionsinteraktionen vorzubereiten.

 Sie beginnen auf der **Datenflussseite**. Die Seite sollte in etwa wie folgt aussehen. 

![\[Zeigt die Datenflussseite von Data Wrangler mit den Optionen Daten importieren und Beispieldatensatz verwenden.\]](http://docs.aws.amazon.com/de_de/personalize/latest/dg/images/dw-data-sources.png)


Um mit dem Import von Daten zu beginnen, wählen Sie **Daten importieren** und geben Ihre Datenquelle an. Data Wrangler unterstützt mehr als 40 Quellen. Dazu gehören AWS Dienste wie Amazon Redshift, Amazon EMR oder Amazon Athena sowie Dritte wie Snowflake oder. DataBricks Verschiedene Datenquellen haben unterschiedliche Verfahren zum Verbinden und Importieren von Daten. 

Eine vollständige Liste der verfügbaren Quellen und step-by-step Anweisungen zum Importieren von Daten finden Sie unter [Import](https://docs.aws.amazon.com/sagemaker/latest/dg/data-wrangler-import.html) im *Amazon SageMaker AI Developer Guide*. 

Nachdem Sie Daten in Data Wrangler importiert haben, sind Sie bereit, sie zu transformieren. Hinweise zur Transformation von Daten finden Sie unter. [Transformieren von Daten](dw-transform-data.md)

# Transformieren von Daten
<a name="dw-transform-data"></a>

 Um Daten in Data Wrangler zu transformieren, fügen Sie Ihrem Datenfluss einen **Transformationsschritt** hinzu. Data Wrangler umfasst über 300 Transformationen, mit denen Sie Ihre Daten aufbereiten können, darunter eine Transformation mit **Kartenspalten für Amazon** Personalize. Und Sie können die allgemeinen Data Wrangler-Transformationen verwenden, um Probleme wie Ausreißer, Typprobleme und fehlende Werte zu beheben. 

Nachdem Sie Ihre Daten transformiert haben, können Sie sie mit Data Wrangler analysieren. Oder, wenn Sie mit der Vorbereitung Ihrer Daten in Data Wrangler fertig sind, können Sie sie verarbeiten und in Amazon Personalize importieren. Informationen zur Analyse von Daten finden Sie unter. [Generierung von Visualisierungen und Dateneinblicken](dw-analyze-data.md) Hinweise zum Verarbeiten und Importieren von Daten finden Sie unter[Daten verarbeiten und in Amazon Personalize importieren](dw-export-data.md).

**Topics**
+ [

## Zuordnen von Spalten für Amazon Personalize
](#dw-personalize-transform)
+ [

## Allgemeine Daten: Wrangler-Transformationen
](#dw-general-transform)

## Zuordnen von Spalten für Amazon Personalize
<a name="dw-personalize-transform"></a>

 Um Ihre Daten so zu transformieren, dass sie die Anforderungen von Amazon Personalize erfüllen, fügen Sie die Transformation **Map-Spalten für Amazon Personalize** hinzu und ordnen Ihre Spalten den erforderlichen und optionalen Feldern für Amazon Personalize zu.

**So verwenden Sie die Map-Spalten für die Amazon Personalize Personalize-Transformation**

1.  Wählen Sie **\$1** für Ihre letzte Transformation und wählen Sie **Transformation hinzufügen**. Wenn Sie keine Transformation hinzugefügt haben, wählen Sie **\$1** für die Transformation der **Datentypen**. Data Wrangler fügt diese Transformation automatisch zu Ihrem Flow hinzu. 

1.  Wählen Sie **Schritt hinzufügen**. 

1.  Wählen Sie **Transforms for Amazon Personalize**. Die Transformation **Kartenspalten für Amazon Personalize** ist standardmäßig ausgewählt. 

1. Verwenden Sie die Transformationsfelder, um Ihre Daten den erforderlichen Amazon Personalize-Attributen zuzuordnen.

   1. Wählen Sie den Datensatztyp, der Ihren Daten entspricht (Interaktionen, Artikel oder Benutzer). 

   1. Wählen Sie Ihre Domain (E-COMMERCE, VIDEO\$1ON\$1DEMAND oder benutzerdefiniert). Die von Ihnen gewählte Domain muss mit der Domain übereinstimmen, die Sie bei der Erstellung Ihrer Datensatzgruppe angegeben haben.

   1. Wählen Sie die Spalten aus, die den erforderlichen und optionalen Feldern für Amazon Personalize entsprechen. Wählen Sie beispielsweise für die Spalte item\$1ID die Spalte in Ihren Daten aus, in der die eindeutigen Identifikationsinformationen für jeden Ihrer Artikel gespeichert sind. 

      Jedes Spaltenfeld wird nach Datentyp gefiltert. Nur die Spalten in Ihren Daten, die die Amazon Personalize Personalize-Datentypanforderungen erfüllen, sind verfügbar. Wenn Ihre Daten nicht dem erforderlichen Typ entsprechen, können Sie die Wrangler-Transformation „[Wert als Typ analysieren](https://docs.aws.amazon.com/sagemaker/latest/dg/data-wrangler-transform.html#data-wrangler-transform-cast-type)“ verwenden, um sie zu konvertieren.

## Allgemeine Daten: Wrangler-Transformationen
<a name="dw-general-transform"></a>

 Die folgenden allgemeinen Data Wrangler-Transformationen können Ihnen bei der Vorbereitung von Daten für Amazon Personalize helfen: 
+ Datentypkonvertierung: Wenn Ihr Feld in der Transformation **Map-Spalten für Amazon Personalize** nicht als mögliche Option aufgeführt ist, müssen Sie möglicherweise seinen Datentyp konvertieren. Die Data Wrangler-Transformation „[Wert als Typ analysieren](https://docs.aws.amazon.com/sagemaker/latest/dg/data-wrangler-transform.html#data-wrangler-transform-cast-type)“ kann Ihnen bei der Konvertierung Ihrer Daten helfen. Oder Sie können die **Datentypentransformation verwenden**, die Data Wrangler standardmäßig hinzufügt, wenn Sie einen Flow erstellen. **Um diese Transformation zu verwenden, wählen Sie den Datentyp aus den Dropdownlisten **Typ** aus, wählen **Vorschau** und dann Aktualisieren aus.**

   Informationen zu den erforderlichen Datentypen für Felder finden Sie im Abschnitt für Ihre Domain und Ihren Datensatztyp unter[JSON-Schema-Dateien für Amazon Personalize Personalize-Schemas erstellen](how-it-works-dataset-schema.md). 
+ Umgang mit fehlenden Werten und Ausreißern: Wenn Sie Erkenntnisse über fehlende Werte oder Ausreißer generieren, können Sie die Data Wrangler-Transformationen „[Ausreißer behandeln“ und „Fehlende Werte behandeln](https://docs.aws.amazon.com/sagemaker/latest/dg/data-wrangler-transform.html#data-wrangler-transform-handle-outlier)[“ verwenden, um diese Probleme zu lösen](https://docs.aws.amazon.com/sagemaker/latest/dg/data-wrangler-transform.html#data-wrangler-transform-handle-missing). 
+  Benutzerdefinierte Transformationen: Mit Data Wrangler können Sie Ihre eigenen Transformationen mit Python (benutzerdefinierte Funktion) PySpark, Pandas oder (SQL) erstellen. PySpark Sie können eine benutzerdefinierte Transformation verwenden, um Aufgaben wie das Löschen doppelter Spalten oder das Gruppieren nach Spalten auszuführen. Weitere Informationen finden Sie unter [Benutzerdefinierte Transformationen](https://docs.aws.amazon.com/sagemaker/latest/dg/data-wrangler-transform.html#data-wrangler-transform-custom) im *Amazon SageMaker AI Developer Guide*. 

# Generierung von Visualisierungen und Dateneinblicken
<a name="dw-analyze-data"></a>

Nachdem Sie Ihre Daten in Data Wrangler importiert haben, können Sie sie verwenden, um Visualisierungen und Dateneinblicke zu generieren. 
+  **[Visualisierungen](#dw-visualizing-data)**: Data Wrangler kann verschiedene Arten von Diagrammen erstellen, z. B. Histogramme und Streudiagramme. Sie können beispielsweise ein Histogramm erstellen, um Ausreißer in Ihren Daten zu identifizieren. 
+ **[Dateneinblicke](#dw-generating-insights)**: Sie können einen *Datenqualitäts- und Insights-Bericht für Amazon Personalize* verwenden, um anhand von Dateneinblicken sowie Spalten- und Zeilenstatistiken mehr über Ihre Daten zu erfahren. Dieser Bericht kann Sie darüber informieren, ob Sie irgendwelche Typprobleme mit Ihren Daten haben. Außerdem erfahren Sie, welche Maßnahmen Sie ergreifen können, um Ihre Daten zu verbessern. Diese Maßnahmen können Ihnen helfen, die Ressourcenanforderungen von Amazon Personalize zu erfüllen, z. B. die Anforderungen an die Modellschulung, oder sie können zu verbesserten Empfehlungen führen.

 Nachdem Sie mithilfe von Visualisierungen und Erkenntnissen mehr über Ihre Daten erfahren haben, können Sie diese Informationen verwenden, um zusätzliche Transformationen zur Verbesserung Ihrer Daten anzuwenden. Oder, wenn Sie mit der Vorbereitung Ihrer Daten fertig sind, können Sie sie verarbeiten und in Amazon Personalize importieren. Informationen zur Transformation Ihrer Daten finden Sie unter[Transformieren von Daten](dw-transform-data.md). Hinweise zum Verarbeiten und Importieren von Daten finden Sie unter[Daten verarbeiten und in Amazon Personalize importieren](dw-export-data.md). 

## Generieren von Visualisierungen
<a name="dw-visualizing-data"></a>

Sie können Data Wrangler verwenden, um verschiedene Arten von Diagrammen zu erstellen, z. B. Histogramme und Streudiagramme. Sie können beispielsweise ein Histogramm erstellen, um Ausreißer in Ihren Daten zu identifizieren. Um eine Datenvisualisierung zu generieren, fügen Sie Ihrem Schema einen **Analyseschritt** hinzu und wählen unter **Analysetyp** die Visualisierung aus, die Sie erstellen möchten. 

 Weitere Informationen zum Erstellen von Visualisierungen in Data Wrangler finden Sie unter [Analysieren und Visualisieren](https://docs.aws.amazon.com/sagemaker/latest/dg/data-wrangler-analyses.html) im *Amazon SageMaker * AI Developer Guide. 

## Generierung von Dateneinblicken
<a name="dw-generating-insights"></a>

 Sie können Data Wrangler verwenden, um einen **Datenqualitäts- und Insights-Bericht für Amazon Personalize zu erstellen, der für** Ihren Datensatztyp spezifisch ist. Bevor Sie den Bericht erstellen, empfehlen wir Ihnen, Ihre Daten so zu transformieren, dass sie die Anforderungen von Amazon Personalize erfüllen. Dies wird zu relevanteren Erkenntnissen führen. Weitere Informationen finden Sie unter [Transformieren von Daten](dw-transform-data.md). 

**Topics**
+ [

### Inhalt melden
](#dw-report-content)
+ [

### Der Bericht wird generiert
](#dw-generating-insight-report)

### Inhalt melden
<a name="dw-report-content"></a>

Der **Datenqualitäts- und Insights-Bericht für Amazon Personalize** umfasst die folgenden Abschnitte: 
+ **Zusammenfassung:** Die Berichtszusammenfassung umfasst Datensatzstatistiken und Warnungen mit hoher Priorität:
  + **Datensatzstatistiken:** Dazu gehören spezifische Statistiken von Amazon Personalize, wie die Anzahl der eindeutigen Benutzer in Ihren Interaktionsdaten, und allgemeine Statistiken, wie die Anzahl fehlender Werte oder Ausreißer.
  +  **Warnungen mit hoher Priorität:** Dies sind spezifische Erkenntnisse von Amazon Personalize, die sich am stärksten auf Schulungen oder Empfehlungen auswirken. Jede Warnung enthält eine empfohlene Maßnahme, die Sie ergreifen können, um das Problem zu lösen. 
+  **Doppelte Zeilen und Unvollständige Zeilen:** Diese Abschnitte enthalten Informationen darüber, in welchen Zeilen Werte fehlen und welche Zeilen in Ihren Daten doppelt vorkommen. 
+  **Zusammenfassung der Funktionen:** Dieser Abschnitt enthält den Datentyp für jede Spalte, ungültige oder fehlende Dateninformationen und die Anzahl der Warnungen. 
+  **Funktionsdetails:** Dieser Abschnitt enthält Unterabschnitte mit detaillierten Informationen für jede Ihrer Datenspalten. Jeder Unterabschnitt enthält Statistiken für die Spalte, z. B. die Anzahl der kategorialen Werte und Informationen zu fehlenden Werten. Und jeder Unterabschnitt enthält spezifische Einblicke und Handlungsempfehlungen von Amazon Personalize für Datenspalten. Ein Einblick könnte beispielsweise darauf hindeuten, dass eine Spalte mehr als 30 mögliche Kategorien hat. 

#### Probleme mit dem Datentyp
<a name="dw-report-type-issues"></a>

 Der Bericht identifiziert Spalten, die nicht den richtigen Datentyp haben, und gibt den erforderlichen Typ an. Um Einblicke in diese Funktionen zu erhalten, müssen Sie den Datentyp der Spalte konvertieren und den Bericht erneut generieren. Um den Typ zu konvertieren, können Sie die Data Wrangler-Transformation „[Wert als Typ analysieren](https://docs.aws.amazon.com/sagemaker/latest/dg/data-wrangler-transform.html#data-wrangler-transform-cast-type)“ verwenden. 

#### Einblicke in Amazon Personalize
<a name="dw-report-insights"></a>

Die Erkenntnisse von Amazon Personalize beinhalten ein Ergebnis und eine vorgeschlagene Maßnahme. Die Aktion ist optional. Der Bericht könnte beispielsweise Erkenntnisse und Maßnahmen in Bezug auf die Anzahl der Kategorien für eine Spalte mit kategorialen Daten enthalten. Wenn Sie nicht glauben, dass es sich bei der Spalte um eine kategorische Spalte handelt, können Sie diese Erkenntnis ignorieren und keine Maßnahmen ergreifen.

 Abgesehen von geringfügigen Formulierungsunterschieden sind die spezifischen Erkenntnisse von Amazon Personalize dieselben wie die Erkenntnisse aus *einzelnen Datensätzen*, die Sie möglicherweise generieren, wenn Sie Ihre Daten mit Amazon Personalize analysieren. Der Insights-Bericht in Data Wrangler enthält beispielsweise Erkenntnisse wie „Der Datensatz mit Artikelinteraktionen hat nur X eindeutige Benutzer mit zwei oder mehr Interaktionen“. Er enthält jedoch keine Erkenntnisse wie „X% der *Elemente im Artikeldatensatz haben keine Interaktionen im Datensatz* *Artikelinteraktionen*“.

 Eine Liste möglicher Amazon Personalize Personalize-spezifischer Erkenntnisse finden Sie in den Erkenntnissen, die nicht auf mehrere Datensätze verweisen. [Einblicke in Daten](analyzing-data.md#data-insights)

#### Berichtsbeispiele
<a name="dw-insight-report-examples"></a>

Das Erscheinungsbild des Amazon Personalize entspricht dem allgemeinen Insights-Bericht in Data Wrangler. Beispiele für den allgemeinen Insights-Bericht finden [Sie unter Get Insights On Data and Data Quality](https://docs.aws.amazon.com/sagemaker/latest/dg/data-wrangler-data-insights.html) im *Amazon SageMaker AI Developer Guide*. Das folgende Beispiel zeigt, wie der Zusammenfassungsbereich eines Berichts für einen Datensatz mit Artikelinteraktionen aussieht. Er enthält Datensatzstatistiken und einige mögliche Warnungen zu Datensätzen mit hoher Priorität zu Artikelinteraktionen.

![\[Stellt den zusammenfassenden Abschnitt eines Berichts für einen Datensatz mit Artikelinteraktionen dar.\]](http://docs.aws.amazon.com/de_de/personalize/latest/dg/images/dw-reports-summary.png)


 Das folgende Beispiel zeigt, wie der Abschnitt mit den Feature-Details für eine EVENT\$1TYPE-Spalte eines Datensatzes mit Artikelinteraktionen in einem Bericht erscheinen könnte. 

![\[Stellt den Abschnitt mit den Feature-Details für eine EVENT_TYPE-Spalte eines Datensatzes mit Artikelinteraktionen dar.\]](http://docs.aws.amazon.com/de_de/personalize/latest/dg/images/dw-event-type-report.png)


### Der Bericht wird generiert
<a name="dw-generating-insight-report"></a>

Um den **Datenqualitäts- und Insights-Bericht für Amazon Personalize zu** erstellen, wählen Sie **Dateneinblicke für Ihre Transformation abrufen** und eine Analyse erstellen.

**Um einen Datenqualitäts- und Insights-Bericht für Amazon Personalize zu erstellen**

1. Wählen Sie die Option **\$1** für die Transformation, die Sie analysieren. Wenn Sie keine Transformation hinzugefügt haben, wählen Sie **\$1** für die Transformation der **Datentypen**. Data Wrangler fügt diese Transformation automatisch zu Ihrem Flow hinzu. 

1. Wählen Sie **Daten-Insights abrufen** aus. Das Fenster **Analyse erstellen** wird angezeigt.

1. Wählen Sie als **Analysetyp** **Data Quality and Insights Report for Amazon Personalize** aus. 

1.  Wählen Sie **unter Datensatztyp** den Typ des Amazon Personalize Personalize-Datensatzes aus, den Sie analysieren. 

1. Wählen Sie optional **Auf vollständigen Daten ausführen aus**. Standardmäßig generiert Data Wrangler nur Erkenntnisse aus einer Stichprobe Ihrer Daten. 

1. Wählen Sie **Erstellen** aus. Nach Abschluss der Analyse wird der Bericht angezeigt. 

# Daten verarbeiten und in Amazon Personalize importieren
<a name="dw-export-data"></a>

 Wenn Sie mit der Analyse und Transformation Ihrer Daten fertig sind, können Sie sie verarbeiten und in Amazon Personalize importieren. 
+  **[Daten verarbeiten](#dw-process-data)** — Die Verarbeitung der Daten wendet Ihre Transformation auf Ihren gesamten Datensatz an und gibt ihn an ein von Ihnen festgelegtes Ziel aus. In diesem Fall geben Sie einen Amazon S3 S3-Bucket an. 
+ **[Daten in Amazon Personalize importieren](#dw-import-into-personalize)** — Um verarbeitete Daten in Amazon Personalize zu importieren, führen Sie ein in AI Studio Classic bereitgestelltes Jupyter Notebook aus. SageMaker Dieses Notizbuch erstellt Ihre Amazon Personalize Personalize-Datensätze und importiert Ihre Daten in sie. 

## Verarbeiten von Daten
<a name="dw-process-data"></a>

 Bevor Sie Daten in Amazon Personalize importieren, müssen Sie Ihre Transformation auf Ihren gesamten Datensatz anwenden und ihn in einem Amazon S3 S3-Bucket ausgeben. Dazu erstellen Sie einen Zielknoten, dessen Ziel auf einen Amazon S3 S3-Bucket festgelegt ist, und starten dann einen Verarbeitungsjob für die Transformation.

 step-by-stepAnweisungen zur Angabe eines Ziels und zum Starten eines Prozessauftrags finden Sie unter [Starten von Verarbeitungsaufträgen mit wenigen Klicks mithilfe von Amazon SageMaker AI Data Wrangler](https://aws.amazon.com/blogs/machine-learning/launch-processing-jobs-with-a-few-clicks-using-amazon-sagemaker-data-wrangler/). Wenn Sie ein Ziel hinzufügen, wählen Sie **Amazon S3**. Sie verwenden diesen Speicherort, wenn Sie die verarbeiteten Daten in Amazon Personalize importieren.

Wenn Sie mit der Verarbeitung Ihrer Daten fertig sind, können Sie sie aus dem Amazon S3 S3-Bucket in Amazon Personalize importieren.

## Daten in Amazon Personalize importieren
<a name="dw-import-into-personalize"></a>

Nachdem Sie Ihre Daten verarbeitet haben, können Sie sie in Amazon Personalize importieren. Um verarbeitete Daten in Amazon Personalize zu importieren, führen Sie ein in AI Studio Classic bereitgestelltes Jupyter Notebook aus. SageMaker Dieses Notizbuch erstellt Ihre Amazon Personalize Personalize-Datensätze und importiert Ihre Daten in sie.

**Um verarbeitete Daten in Amazon Personalize zu importieren**

1. Wählen Sie für die Transformation, die Sie exportieren möchten, **Exportieren nach** und dann **Amazon Personalize (über Jupyter** Notebook).

1. Ändern Sie das Notizbuch, um den Amazon S3 S3-Bucket anzugeben, den Sie als Datenziel für den Verarbeitungsjob verwendet haben. Geben Sie optional die Domain für Ihre Datensatzgruppe an. Standardmäßig erstellt das Notizbuch eine benutzerdefinierte Datensatzgruppe.

1. Überprüfen Sie die Notizbuchzellen, die das Schema erstellen. Stellen Sie sicher, dass die Schemafelder die erwarteten Typen und Attribute haben, bevor Sie die Zelle ausführen. 
   +  Stellen Sie sicher, dass Felder, die Nulldaten unterstützen, in der Typenliste `null` aufgeführt sind. Das folgende Beispiel zeigt, wie Daten `null` für ein Feld hinzugefügt werden. 

     ```
     {
       "name": "GENDER",
       "type": [
         "null",
         "string"
       ],
       "categorical": true
     }
     ```
   +  Stellen Sie sicher, dass das kategoriale Attribut für kategoriale Felder auf true gesetzt ist. Das folgende Beispiel zeigt, wie ein Feld als kategorisch markiert wird. 

     ```
     {
               "name": "SUBSCRIPTION_MODEL",
               "type": "string",
               "categorical": true
     }
     ```
   + Stellen Sie sicher, dass bei Textfeldern das Textattribut auf true gesetzt ist. Das folgende Beispiel zeigt, wie ein Feld als Textfeld markiert wird.

     ```
     {
           "name": "DESCRIPTION",
           "type": [
             "null",
             "string"
           ],
           "textual": true
     }
     ```

1. Führen Sie das Notizbuch aus, um ein Schema und einen Datensatz zu erstellen und Ihre Daten in den Amazon Personalize-Datensatz zu importieren. Sie führen das Notizbuch genauso aus wie ein Notizbuch außerhalb von SageMaker AI Studio Classic. [Informationen zum Ausführen von Jupyter-Notebooks finden Sie unter Running Code.](https://jupyter-notebook.readthedocs.io/en/stable/examples/Notebook/Running Code.html) Informationen zu Notizbüchern in SageMaker AI Studio Classic finden Sie unter [Verwenden von Amazon SageMaker AI-Notebooks](https://docs.aws.amazon.com/sagemaker/latest/dg/notebooks.html) im *Amazon SageMaker AI Developer Guide*.

    Wenn Sie das Notizbuch fertiggestellt haben und Interaktionsdaten importiert haben, können Sie Empfehlungen oder benutzerdefinierte Ressourcen erstellen. Sie können den Vorgang auch mit einem Artikeldatensatz oder einem Benutzerdatensatz wiederholen.
   + Informationen zum Erstellen einer Domain Recommenders finden Sie unter[Domain-Empfehlungen in Amazon Personalize](creating-recommenders.md). 
   + Informationen zum Erstellen und Bereitstellen von benutzerdefinierten Ressourcen finden Sie unter[Maßgeschneiderte Ressourcen für das Training und die Bereitstellung von Amazon Personalize Personalize-Modellen](create-custom-resources.md).

# Einzelne Datensätze in einen Amazon Personalize importieren
<a name="incremental-data-updates"></a>

 Nachdem Sie den Vorgang abgeschlossen haben[Erstellen eines Schemas und eines Datensatzes](data-prep-creating-datasets.md), können Sie einzelne Datensätze, einschließlich Artikelinteraktionen, Benutzer, Artikel, Aktionen oder Aktionsinteraktionen, in einen vorhandenen Datensatz importieren. Wenn Sie Daten einzeln importieren, können Sie Ihren Amazon Personalize-Datensätzen kleine Stapel von Datensätzen hinzufügen, wenn Ihr Katalog wächst. Sie können bis zu 10 Datensätze pro einzelnen Importvorgang importieren.

Wenn Sie einen Artikel, einen Benutzer oder eine Aktion mit derselben ID wie ein Datensatz importieren, der sich bereits in Ihrem Datensatz befindet, ersetzt Amazon Personalize ihn durch den neuen Datensatz. Wenn Sie zwei Artikelinteraktionen oder Aktionsinteraktionsereignisse mit exakt demselben Zeitstempel und identischen Eigenschaften aufzeichnen, speichert Amazon Personalize nur eines der Ereignisse.

Wenn Sie Apache Kafka verwenden, können Sie den *Kafka-Konnektor für Amazon Personalize* verwenden, um Daten in Echtzeit zu Amazon Personalize zu streamen. Weitere Informationen finden Sie unter [Kafka Connector for Amazon Personalize](https://github.com/aws/personalize-kafka-connector/blob/main/README.md) im *personalize-kafka-connector*Github-Repository.

 Wenn Sie über eine große Menge an historischen Datensätzen verfügen, empfehlen wir, dass Sie zuerst Daten in großen Mengen importieren und dann bei Bedarf Daten einzeln importieren. Siehe [Import von Massendaten in Amazon Personalize mit einem Datensatz-Importjob](bulk-data-import-step.md). 

**Filtern Sie Aktualisierungen für einzelne Datensatzimporte**

Amazon Personalize aktualisiert alle Filter, die Sie in der Datensatzgruppe erstellt haben, innerhalb von 20 Minuten nach dem letzten Einzelimport mit Ihren neuen Interaktions-, Artikel- und Benutzerdaten. Dieses Update ermöglicht es Ihren Kampagnen, Ihre neuesten Daten beim Filtern von Empfehlungen für Ihre Nutzer zu verwenden. 

Wenn Sie bereits einen Empfehlungsgeber erstellt oder eine benutzerdefinierte Lösungsversion mit einer Kampagne bereitgestellt haben, hängt die Art und Weise, wie neue individuelle Datensätze die Empfehlungen beeinflussen, vom verwendeten Domain-Anwendungsfall oder Rezept ab. Weitere Informationen finden Sie unter [Aktualisierung von Daten in Datensätzen nach dem Training](updating-datasets.md).

**Topics**
+ [

# Interaktionen einzeln importieren
](importing-interactions.md)
+ [

# Benutzer einzeln importieren
](importing-users.md)
+ [

# Artikel einzeln importieren
](importing-items.md)
+ [

# Aktionen einzeln importieren
](importing-actions.md)

# Interaktionen einzeln importieren
<a name="importing-interactions"></a>

 Nachdem Sie [Erstellen eines Schemas und eines Datensatzes](data-prep-creating-datasets.md) die Erstellung eines Datensatzes mit Artikelinteraktionen abgeschlossen haben, können Sie ein oder mehrere neue Ereignisse einzeln in den Datensatz importieren. Um *[Interaktionsereignisse](https://docs.aws.amazon.com/glossary/latest/reference/glos-chap.html#event)* einzeln zu importieren, erstellen Sie einen *[Event-Tracker](https://docs.aws.amazon.com/glossary/latest/reference/glos-chap.html#event-tracker)* und importieren dann ein oder mehrere Ereignisse in Ihren Datensatz mit Artikelinteraktionen. Sie können historische einzelne Interaktionsereignisse mit der Amazon Personalize Personalize-Konsole importieren oder historische Ereignisse oder Echtzeitereignisse mit AWS Command Line Interface (AWS CLI) oder dem AWS SDKs importieren.

Dieser Abschnitt enthält Informationen zum Importieren von Ereignissen mit der Amazon Personalize Personalize-Konsole. Wir empfehlen, die Amazon Personalize-Konsole zu verwenden, um *nur* historische Ereignisse zu importieren. Informationen zur Verwendung von AWS CLI oder AWS SDKs zum Aufzeichnen von Ereignissen in Echtzeit finden Sie unter[Aufzeichnung von Ereignissen in Echtzeit zur Beeinflussung von Empfehlungen](recording-events.md). 

Informationen darüber, wie Amazon Personalize Filter für neue Datensätze aktualisiert und wie neue Datensätze Empfehlungen beeinflussen, finden Sie unter[Einzelne Datensätze in einen Amazon Personalize importieren](incremental-data-updates.md). 

**Topics**
+ [

## Einen Event-Tracker (Konsole) erstellen
](#event-tracker-console)
+ [

## Ereignisse einzeln importieren (Konsole)
](#importing-interactions-console)

## Einen Event-Tracker (Konsole) erstellen
<a name="event-tracker-console"></a>

**Anmerkung**  
 Wenn Sie einen Event-Tracker erstellt haben, können Sie zu springen[Ereignisse einzeln importieren (Konsole)](#importing-interactions-console). 

Bevor Sie ein Ereignis in einen Interactions-Datensatz importieren können, müssen Sie einen *[Event-Tracker](https://docs.aws.amazon.com/glossary/latest/reference/glos-chap.html#event-tracker)* für die Datensatzgruppe erstellen. 

**Um einen Event-Tracker (Konsole) zu erstellen**

1. Öffnen Sie zu [https://console.aws.amazon.com/personalize/Hause](https://console.aws.amazon.com/personalize/home) die Amazon Personalize Personalize-Konsole und melden Sie sich bei Ihrem Konto an.

1.  Wählen Sie auf der Seite **Datensatzgruppen** die Datensatzgruppe mit dem Datensatz Artikelinteraktionen aus, in die Sie Ereignisse importieren möchten.

1. **Wählen Sie im **Dashboard** für die Datensatzgruppe unter **Install Event Ingestion SDK die Option Start** aus.** 

1. **Geben Sie auf der Seite **Tracker konfigurieren unter** **Tracker-Konfigurationen** für **Tracker-Name** einen Namen für den Event-Tracker ein und wählen Sie Weiter aus.**

1. Auf der Seite **SDK installieren** werden die **Tracking-ID** für den neuen Event-Tracker sowie Anweisungen zur Verwendung AWS Amplify oder AWS Lambda zum Streamen von Ereignisdaten angezeigt.

   Sie können diese Informationen ignorieren, da Sie die Amazon Personalize-Konsole verwenden, um Veranstaltungsdaten hochzuladen. Wenn Sie mit AWS Amplify oder AWS Lambda in future Eventdaten streamen möchten, können Sie sich diese Informationen ansehen, indem Sie auf der Seite Event-Tracker den **Event-Tracker** auswählen. 

1. Wählen Sie **Finish** (Abschließen). Sie können jetzt Ereignisse mit der Konsole importieren (Ereignisse anzeigen) [Ereignisse einzeln importieren (Konsole)](#importing-interactions-console) oder mithilfe der `PutEvents` Operation in Echtzeit aufzeichnen (siehe[Aufzeichnung von Ereignissen in Echtzeit zur Beeinflussung von Empfehlungen](recording-events.md)). 

## Ereignisse einzeln importieren (Konsole)
<a name="importing-interactions-console"></a>

 Nachdem Sie einen Event-Tracker erstellt haben, können Sie Ereignisse einzeln in einen Datensatz mit Artikelinteraktionen importieren. Bei diesem Verfahren wird davon ausgegangen, dass Sie bereits einen Datensatz mit Artikelinteraktionen erstellt haben. Hinweise zum Erstellen von Datensätzen finden Sie unter[Erstellen eines Schemas und eines Datensatzes](data-prep-creating-datasets.md).

**Um Ereignisse einzeln zu importieren (Konsole)**

1. Öffnen Sie zu [https://console.aws.amazon.com/personalize/Hause](https://console.aws.amazon.com/personalize/home) die Amazon Personalize Personalize-Konsole und melden Sie sich bei Ihrem Konto an.

1. Wählen Sie auf der Seite **Datensatzgruppen** die Datensatzgruppe mit dem Datensatz Artikelinteraktionen aus, in die Sie Ereignisse importieren möchten. 

1. Wählen Sie im Navigationsbereich **Datensätze** aus. 

1. Wählen Sie auf der Seite „**Datensätze**“ den Datensatz Interaktionen aus. 

1. Wählen Sie oben rechts auf der Seite mit den Datensatz-Details die Option **Datensatz ändern** und anschließend **Datensatz erstellen** aus. 

1. Geben Sie auf der Seite **Benutzerelementinteraktionsdatensätze erstellen** für **Datensatzeingabe** die Ereignisdetails im JSON-Format ein. Die Feldnamen und Werte des Ereignisses müssen dem Schema entsprechen, das Sie bei der Erstellung des Datensatzes „Artikelinteraktionen“ verwendet haben. Amazon Personalize stellt eine JSON-Vorlage mit Feldnamen und Datentypen aus diesem Schema bereit. Sie können bis zu 10 Ereignisse gleichzeitig importieren.

1. Wählen Sie „**Datensatz (e) erstellen**“. **Als Antwort** wird das Ergebnis des Imports aufgeführt und eine Erfolgs- oder Fehlschlagsmeldung angezeigt. 

# Benutzer einzeln importieren
<a name="importing-users"></a>

 Nachdem Sie [Erstellen eines Schemas und eines Datensatzes](data-prep-creating-datasets.md) die Erstellung eines Benutzerdatensatzes abgeschlossen haben, können Sie einen oder mehrere neue Benutzer einzeln in den Datensatz importieren. Durch den individuellen Import von Benutzern können Sie Ihren Benutzerdatensatz mit kleinen Batch-Importen auf dem neuesten Stand halten, wenn Ihr Katalog wächst. Sie können bis zu 10 Benutzer gleichzeitig importieren. Wenn Sie eine große Anzahl neuer Benutzer haben, empfehlen wir, zuerst Daten in großen Mengen zu importieren und dann die Benutzerdaten bei Bedarf einzeln zu importieren. Siehe [Import von Massendaten in Amazon Personalize mit einem Datensatz-Importjob](bulk-data-import-step.md). 

Sie können die Amazon Personalize Personalize-Konsole AWS Command Line Interface (AWS CLI) oder verwenden, um Benutzer AWS SDKs zu importieren. Wenn Sie einen Benutzer importieren, der mit einem Benutzer `userId` identisch ist, der bereits in Ihrem Benutzerdatensatz enthalten ist, ersetzt Amazon Personalize den Benutzer durch den neuen. Sie können bis zu 10 Benutzer gleichzeitig importieren.

Informationen darüber, wie Amazon Personalize Filter für neue Datensätze aktualisiert und wie sich neue Datensätze auf Empfehlungen auswirken, finden Sie unter[Einzelne Datensätze in einen Amazon Personalize importieren](incremental-data-updates.md). 

**Topics**
+ [

## Benutzer einzeln importieren (Konsole)
](#importing-users-console)
+ [

## Benutzer einzeln importieren (AWS CLI)
](#importing-users-cli)
+ [

## Benutzer einzeln importieren ()AWS SDKs
](#importing-users-sdk)

## Benutzer einzeln importieren (Konsole)
<a name="importing-users-console"></a>

Sie können bis zu 10 Benutzer gleichzeitig importieren. Bei diesem Verfahren wird davon ausgegangen, dass Sie bereits einen Benutzerdatensatz erstellt haben. Hinweise zum Erstellen von Datensätzen finden Sie unter[Erstellen eines Schemas und eines Datensatzes](data-prep-creating-datasets.md).

**Um Benutzer einzeln zu importieren (Konsole)**

1. Öffnen Sie zu [https://console.aws.amazon.com/personalize/Hause](https://console.aws.amazon.com/personalize/home) die Amazon Personalize Personalize-Konsole und melden Sie sich bei Ihrem Konto an.

1. Wählen Sie auf der Seite **Datensatzgruppen** die Datensatzgruppe mit dem Benutzerdatensatz aus, in den Sie den Benutzer importieren möchten. 

1. Wählen Sie im Navigationsbereich die Option **Datensätze** aus. 

1. Wählen Sie auf der Seite **Datasets** den Datensatz Users aus. 

1. Wählen Sie auf der Seite mit den Datensatz-Details oben rechts die Option **Datensatz ändern** und anschließend **Datensatz erstellen** aus. 

1. Geben Sie auf der Seite **Benutzerdatensätze erstellen** für die Datensatzeingabe die Benutzerdetails im JSON-Format ein. Die Feldnamen und Werte des Benutzers müssen dem Schema entsprechen, das Sie bei der Erstellung des Benutzerdatensatzes verwendet haben. Amazon Personalize stellt eine JSON-Vorlage mit Feldnamen und Datentypen aus diesem Schema bereit. 

1. Wählen Sie „**Datensatz (e) erstellen**“. **Als Antwort** wird das Ergebnis des Imports aufgeführt und eine Erfolgs- oder Fehlschlagsmeldung angezeigt.

## Benutzer einzeln importieren (AWS CLI)
<a name="importing-users-cli"></a>

Fügen Sie mit diesem [PutUsers](API_UBS_PutUsers.md) Vorgang einen oder mehrere Benutzer zu Ihrem Benutzerdatensatz hinzu. Sie können bis zu 10 Benutzer mit einem einzigen `PutUsers` Anruf importieren. In diesem Abschnitt wird davon ausgegangen, dass Sie bereits einen Benutzerdatensatz erstellt haben. Hinweise zum Erstellen von Datensätzen finden Sie unter[Erstellen eines Schemas und eines Datensatzes](data-prep-creating-datasets.md).

Verwenden Sie den folgenden `put-users` Befehl, um einen oder mehrere Benutzer mit dem AWS CLI hinzuzufügen. `dataset arn`Ersetzen Sie es durch den Amazon-Ressourcennamen (ARN) Ihres Datensatzes und `user Id` durch die ID des Benutzers. Wenn ein Benutzer mit demselben Wert bereits in Ihrem Benutzerdatensatz enthalten `userId` ist, ersetzt Amazon Personalize ihn durch den neuen.

Denn `properties` ersetzen Sie für jedes Feld in Ihrem Benutzerdatensatz das `propertyName` durch den Feldnamen aus Ihrem Schema in Camel-Groß- und Kleinschreibung. Zum Beispiel wäre GENDER `gender` und MEMBERSHIP\$1TYPE wäre. `membershipType` Ersetzen Sie es `user data` durch die Daten für den Benutzer. Um bei kategorialen Zeichenkettendaten mehrere Kategorien für eine einzelne Eigenschaft einzubeziehen, trennen Sie jede Kategorie durch einen senkrechten Strich (`|`). Zum Beispiel `\"Premium Class|Legacy Member\"`.

```
aws personalize-events put-users \
  --dataset-arn dataset arn \
  --users '[{
      "userId": "user Id", 
      "properties": "{\"propertyName\": "\user data\"}" 
    }, 
    {
      "userId": "user Id", 
      "properties": "{\"propertyName\": "\user data\"}" 
    }]'
```

## Benutzer einzeln importieren ()AWS SDKs
<a name="importing-users-sdk"></a>

Fügen Sie mit diesem [PutUsers](API_UBS_PutUsers.md) Vorgang einen oder mehrere Benutzer zu Ihrem Benutzerdatensatz hinzu. Wenn ein Benutzer mit demselben Wert bereits in Ihrem Benutzerdatensatz enthalten `userId` ist, ersetzt Amazon Personalize ihn durch den neuen. Sie können bis zu 10 Benutzer mit einem einzigen `PutUsers` Anruf importieren. In diesem Abschnitt wird davon ausgegangen, dass Sie bereits einen Benutzerdatensatz erstellt haben. Hinweise zum Erstellen von Datensätzen finden Sie unter[Erstellen eines Schemas und eines Datensatzes](data-prep-creating-datasets.md).

 Der folgende Code zeigt, wie Sie Ihrem Benutzerdatensatz einen oder mehrere Benutzer hinzufügen. Übergeben Sie für jeden Eigenschaftsnamenparameter den Feldnamen aus Ihrem Schema in Camel-Groß- und Kleinschreibung. Zum Beispiel wäre GENDER `gender` und MEMBERSHIP\$1TYPE wäre. `membershipType` Übergeben Sie für jeden Eigenschaftswertparameter die Daten für den Benutzer. 

Um bei kategorialen Zeichenkettendaten mehrere Kategorien für eine einzelne Eigenschaft einzubeziehen, trennen Sie jede Kategorie durch einen senkrechten Strich (`|`). Zum Beispiel `"Premium class|Legacy Member"`.

------
#### [ SDK for Python (Boto3) ]

```
import boto3

personalize_events = boto3.client(service_name='personalize-events')

personalize_events.put_users(
    datasetArn = 'dataset arn',
    users = [{
      'userId': 'user ID',
      'properties': "{\"propertyName\": \"user data\"}"   
      },
      {
      'userId': 'user ID',
      'properties': "{\"propertyName\": \"user data\"}"   
      }]
)
```

------
#### [ SDK for Java 2.x ]

```
public static int putUsers(PersonalizeEventsClient personalizeEventsClient,
                         String datasetArn,
                         String user1Id,
                         String user1PropertyName,
                         String user1PropertyValue,
                         String user2Id,
                         String user2PropertyName,
                         String user2PropertyValue) {

    int responseCode = 0;
    ArrayList<User> users = new ArrayList<>();

    try {
        User user1 = User.builder()
          .userId(user1Id)
          .properties(String.format("{\"%1$s\": \"%2$s\"}", user1PropertyName, user1PropertyValue))
          .build();

        users.add(user1);

        User user2 = User.builder()
          .userId(user2Id)
          .properties(String.format("{\"%1$s\": \"%2$s\"}", user2PropertyName, user2PropertyValue))
          .build();

        users.add(user2);

        PutUsersRequest putUsersRequest = PutUsersRequest.builder()
          .datasetArn(datasetArn)
          .build();

        responseCode = personalizeEventsClient.putUsers(putUsersRequest).sdkHttpResponse().statusCode();
        System.out.println("Response code: " + responseCode);
        return responseCode;

    } catch (PersonalizeEventsException e) {
        System.out.println(e.awsErrorDetails().errorMessage());
    }
    return responseCode;
}
```

------
#### [ SDK for JavaScript v3 ]

```
import {
  PutUsersCommand,
  PersonalizeEventsClient,
} from "@aws-sdk/client-personalize-events";

const personalizeEventsClient = new PersonalizeEventsClient({
  region: "REGION",
});

// set the put users parameters
var putUsersParam = {
  datasetArn:
    "DATASET ARN",
  users: [
    {
      userId: "userId",
      properties: '{"column1Name": "value", "column2Name": "value"}',
    },
    {
      userId: "userId",
      properties: '{"column1Name": "value", "column2Name": "value"}',
    },
  ],
};
export const run = async () => {
  try {
    const response = await personalizeEventsClient.send(
      new PutUsersCommand(putUsersParam)
    );
    console.log("Success!", response);
    return response; // For unit tests.
  } catch (err) {
    console.log("Error", err);
  }
};
run();
```

------

# Artikel einzeln importieren
<a name="importing-items"></a>

Nachdem Sie [Erstellen eines Schemas und eines Datensatzes](data-prep-creating-datasets.md) die Erstellung eines Artikeldatensatzes abgeschlossen haben, können Sie einen oder mehrere neue Artikel einzeln in den Datensatz importieren. Durch den individuellen Import von Artikeln können Sie Ihren Artikeldatensatz mit kleinen Batch-Importen auf dem neuesten Stand halten, wenn Ihr Katalog wächst. Sie können bis zu 10 Artikel gleichzeitig importieren. Wenn Sie eine große Menge neuer Artikel haben, empfehlen wir, dass Sie zuerst Daten in großen Mengen importieren und dann die Artikeldaten bei Bedarf einzeln importieren. Siehe [Import von Massendaten in Amazon Personalize mit einem Datensatz-Importjob](bulk-data-import-step.md).

Sie können die Amazon Personalize Personalize-Konsole AWS Command Line Interface (AWS CLI) oder verwenden, um Artikel AWS SDKs zu importieren. Wenn Sie einen Artikel importieren, der denselben Artikel `itemId` wie einen Artikel enthält, der bereits in Ihrem Artikeldatensatz enthalten ist, ersetzt Amazon Personalize ihn durch den neuen Artikel.

 Informationen darüber, wie Amazon Personalize Filter für neue Datensätze aktualisiert und wie neue Datensätze Empfehlungen beeinflussen, finden Sie unter[Einzelne Datensätze in einen Amazon Personalize importieren](incremental-data-updates.md). 

**Topics**
+ [

## Artikel einzeln importieren (Konsole)
](#importing-items-console)
+ [

## Artikel einzeln importieren (AWS CLI)
](#importing-items-cli)
+ [

## Elemente einzeln importieren ()AWS SDKs
](#importing-items-cli-sdk)

## Artikel einzeln importieren (Konsole)
<a name="importing-items-console"></a>

Sie können bis zu 10 Elemente gleichzeitig in einen Artikeldatensatz importieren. Bei diesem Verfahren wird davon ausgegangen, dass Sie bereits einen Artikeldatensatz erstellt haben. Hinweise zum Erstellen von Datensätzen finden Sie unter[Erstellen eines Schemas und eines Datensatzes](data-prep-creating-datasets.md).

**Um Elemente einzeln zu importieren (Konsole)**

1. Öffnen Sie zu [https://console.aws.amazon.com/personalize/Hause](https://console.aws.amazon.com/personalize/home) die Amazon Personalize Personalize-Konsole und melden Sie sich bei Ihrem Konto an.

1. Wählen Sie auf der Seite **Datensatzgruppen** die Datensatzgruppe mit dem Artikeldatensatz aus, in den Sie die Artikel importieren möchten. 

1. Wählen Sie im Navigationsbereich die Option **Datensätze** aus. 

1. Wählen Sie auf der Seite **Datensätze** den Datensatz Items aus. 

1. Wählen Sie oben rechts auf der Seite mit den Datensatz-Details die Option **Datensatz ändern** und anschließend **Datensatz erstellen** aus. 

1. Geben Sie auf der Seite **Artikeldatensätze erstellen** für **Datensatzeingabe** die Artikeldetails im JSON-Format ein. Die Feldnamen und Werte des Elements müssen dem Schema entsprechen, das Sie bei der Erstellung des Artikel-Datensatzes verwendet haben. Amazon Personalize stellt eine JSON-Vorlage mit Feldnamen und Datentypen aus diesem Schema bereit.

1. Wählen Sie **Datensatz (e) erstellen**. **Als Antwort** wird das Ergebnis des Imports aufgeführt und eine Erfolgs- oder Fehlschlagsmeldung angezeigt.

## Artikel einzeln importieren (AWS CLI)
<a name="importing-items-cli"></a>

Fügen Sie mithilfe der [PutItems](API_UBS_PutItems.md) Operation ein oder mehrere Artikel zu Ihrem Artikel-Datensatz hinzu. Sie können bis zu 10 Elemente mit einem einzigen `PutItems` Aufruf importieren. In diesem Abschnitt wird davon ausgegangen, dass Sie bereits einen Artikeldatensatz erstellt haben. Hinweise zum Erstellen von Datensätzen finden Sie unter[Erstellen eines Schemas und eines Datensatzes](data-prep-creating-datasets.md).

Verwenden Sie den folgenden `put-items` Befehl, um ein oder mehrere Elemente mit dem AWS CLI hinzuzufügen. `dataset arn`Ersetzen Sie es durch den Amazon-Ressourcennamen (ARN) Ihres Datensatzes und `item Id` durch die ID des Artikels. Wenn ein Artikel mit demselben bereits in Ihrem Artikeldatensatz enthalten `itemId` ist, ersetzt Amazon Personalize ihn durch den neuen.

Denn `properties` ersetzen Sie für jedes Feld in Ihrem Artikeldatensatz das `propertyName` durch den Feldnamen aus Ihrem Schema in Camelcase. GENRES wäre beispielsweise `genres` und CREATION\$1TIMESTAMP wäre CreationTimeStamp. Ersetzen Sie `item data` es durch die Daten für das Element. `CREATION_TIMESTAMP`Die Daten müssen im [Unix-Epochenzeitformat](interactions-datasets.md#timestamp-data) und in Sekunden angegeben sein. Um bei kategorialen Zeichenkettendaten mehrere Kategorien für eine einzelne Eigenschaft einzubeziehen, trennen Sie jede Kategorie durch einen senkrechten Strich ()`|`. Zum Beispiel `\"Horror|Action\"`.

```
aws personalize-events put-items \
  --dataset-arn dataset arn \
  --items '[{
      "itemId": "item Id", 
      "properties": "{\"propertyName\": "\item data\"}" 
    }, 
    {
      "itemId": "item Id", 
      "properties": "{\"propertyName\": "\item data\"}" 
    }]'
```

## Elemente einzeln importieren ()AWS SDKs
<a name="importing-items-cli-sdk"></a>

Fügen Sie mithilfe der [PutItems](API_UBS_PutItems.md) Operation ein oder mehrere Artikel zu Ihrem Artikel-Datensatz hinzu. Sie können bis zu 10 Elemente mit einem einzigen `PutItems` Aufruf importieren. Wenn ein Artikel mit demselben bereits in Ihrem Artikeldatensatz enthalten `itemId` ist, ersetzt Amazon Personalize ihn durch den neuen. In diesem Abschnitt wird davon ausgegangen, dass Sie bereits einen Artikeldatensatz erstellt haben. Hinweise zum Erstellen von Datensätzen finden Sie unter[Erstellen eines Schemas und eines Datensatzes](data-prep-creating-datasets.md).

 Der folgende Code zeigt, wie Sie Ihrem Artikel-Datensatz ein oder mehrere Elemente hinzufügen. Übergeben Sie für jeden Eigenschaftsnamenparameter den Feldnamen aus Ihrem Schema in Camel-Case. Zum Beispiel wäre GENRES `genres` und CREATION\$1TIMESTAMP wäre. `creationTimestamp` Übergeben Sie für jeden Eigenschaftswertparameter die Daten für das Element. `CREATION_TIMESTAMP`Die Daten müssen im [Unix-Epochenzeitformat](interactions-datasets.md#timestamp-data) und in Sekunden angegeben sein. 

Um bei kategorialen Zeichenkettendaten mehrere Kategorien für eine einzelne Eigenschaft einzubeziehen, trennen Sie jede Kategorie durch einen senkrechten Strich ()`|`. Zum Beispiel `"Horror|Action"`.

------
#### [ SDK for Python (Boto3) ]

```
import boto3

personalize_events = boto3.client(service_name='personalize-events')

personalize_events.put_items(
    datasetArn = 'dataset arn',
    items = [{
      'itemId': 'item ID',
      'properties': "{\"propertyName\": \"item data\"}"   
      },
      {
      'itemId': 'item ID',
      'properties': "{\"propertyName\": \"item data\"}"   
      }]
)
```

------
#### [ SDK for Java 2.x ]

```
public static int putItems(PersonalizeEventsClient personalizeEventsClient,
                           String datasetArn,
                           String item1Id,
                           String item1PropertyName,
                           String item1PropertyValue,
                           String item2Id,
                           String item2PropertyName,
                           String item2PropertyValue) {

    int responseCode = 0;
    ArrayList<Item> items = new ArrayList<>();

    try {
        Item item1 = Item.builder()
                .itemId(item1Id)
                .properties(String.format("{\"%1$s\": \"%2$s\"}",
                        item1PropertyName, item1PropertyValue))
                .build();

        items.add(item1);

        Item item2 = Item.builder()
                .itemId(item2Id)
                .properties(String.format("{\"%1$s\": \"%2$s\"}",
                        item2PropertyName, item2PropertyValue))
                .build();

        items.add(item2);

        PutItemsRequest putItemsRequest = PutItemsRequest.builder()
                .datasetArn(datasetArn)
                .items(items)
                .build();

        responseCode = personalizeEventsClient.putItems(putItemsRequest).sdkHttpResponse().statusCode();
        System.out.println("Response code: " + responseCode);
        return responseCode;

    } catch (PersonalizeEventsException e) {
        System.out.println(e.awsErrorDetails().errorMessage());
    }
    return responseCode;
    }
```

------
#### [ SDK for JavaScript v3 ]

```
import {
  PutItemsCommand,
  PersonalizeEventsClient,
} from "@aws-sdk/client-personalize-events";

const personalizeEventsClient = new PersonalizeEventsClient({
  region: "REGION",
});

// set the put items parameters
var putItemsParam = {
  datasetArn:
    "DATASET ARN",
  items: [
    {
      itemId: "itemId", 
      properties: '{"column1Name": "value", "column2Name": "value"}',
    },
    {
      itemId: "itemId",
      properties: '{"column1Name": "value", "column2Name": "value"}',
    },
  ],
};
export const run = async () => {
  try {
    const response = await personalizeEventsClient.send(
      new PutItemsCommand(putItemsParam)
    );
    console.log("Success!", response);
    return response; // For unit tests.
  } catch (err) {
    console.log("Error", err);
  }
};
run();
```

------

# Aktionen einzeln importieren
<a name="importing-actions"></a>

Nachdem Sie [Erstellen eines Schemas und eines Datensatzes](data-prep-creating-datasets.md) die Erstellung eines [Aktionsdatensatzes](actions-datasets.md) abgeschlossen haben, können Sie eine oder mehrere neue Aktionen einzeln in den Datensatz importieren. Wenn Sie Aktionen einzeln importieren, halten Sie Ihren Aktionsdatensatz mit kleinen Batch-Importen auf dem neuesten Stand, wenn Ihr Katalog wächst. Sie können bis zu 10 Aktionen gleichzeitig importieren. Wenn Sie über eine große Anzahl neuer Aktionen verfügen, empfehlen wir, dass Sie zuerst Daten in großen Mengen importieren und dann die Aktionsdaten bei Bedarf einzeln importieren. Siehe [Import von Massendaten in Amazon Personalize mit einem Datensatz-Importjob](bulk-data-import-step.md).

Sie können die Amazon Personalize-Konsole, das AWS Command Line Interface (AWS CLI) oder verwenden, um Aktionen AWS SDKs zu importieren. Wenn Sie eine Aktion importieren, die mit einer Aktion `actionId` identisch ist, die sich bereits in Ihrem Aktionen-Datensatz befindet, ersetzt Amazon Personalize sie durch die neue Aktion.

Informationen darüber, wie sich neue Datensätze auf Empfehlungen auswirken, finden Sie unter[Aktualisierung von Daten in Datensätzen nach dem Training](updating-datasets.md). 

**Topics**
+ [

## Aktionen einzeln importieren (Konsole)
](#importing-actions-console)
+ [

## Aktionen einzeln importieren (AWS CLI)
](#importing-actions-cli)
+ [

## Aktionen einzeln importieren (AWS SDKs)
](#importing-actions-cli-sdk)

## Aktionen einzeln importieren (Konsole)
<a name="importing-actions-console"></a>

Sie können bis zu 10 Aktionen gleichzeitig in einen Aktionen-Datensatz importieren. In diesem Abschnitt wird davon ausgegangen, dass Sie bereits einen Actions-Datensatz erstellt haben. Hinweise zum Erstellen von Datensätzen finden Sie unter[Erstellen eines Schemas und eines Datensatzes](data-prep-creating-datasets.md).

**Um Aktionen einzeln zu importieren (Konsole)**

1. Öffnen Sie zu [https://console.aws.amazon.com/personalize/Hause](https://console.aws.amazon.com/personalize/home) die Amazon Personalize Personalize-Konsole und melden Sie sich bei Ihrem Konto an.

1. Wählen Sie auf der Seite **Datensatz-Gruppen** die Datensatz-Gruppe mit dem Action-Datensatz aus, zu dem Sie etwas hinzufügen möchten.

1. Wählen Sie im Navigationsbereich **Datasets** aus. 

1. Wählen Sie auf der Seite „**Datensätze**“ den Datensatz „Aktionen“ aus. 

1. Wählen Sie oben rechts auf der Seite mit den Datensatz-Details die Option **Datensatz ändern** und anschließend **Datensatz erstellen** aus. 

1. Geben **Sie auf der Seite Aktionsdatensatz (e) erstellen** für **Datensatzeingabe** die Aktionsdetails im JSON-Format ein. Die Feldnamen und Werte der Aktion müssen dem Schema entsprechen, das Sie bei der Erstellung des Actions-Datasets verwendet haben. Amazon Personalize stellt eine JSON-Vorlage mit Feldnamen und Datentypen aus diesem Schema bereit.

1. Wählen Sie **Datensatz (e) erstellen**. **Als Antwort** wird das Ergebnis des Imports aufgeführt und eine Erfolgs- oder Fehlschlagsmeldung angezeigt.

## Aktionen einzeln importieren (AWS CLI)
<a name="importing-actions-cli"></a>

Fügen Sie mithilfe der `PutActions` API-Operation eine oder mehrere Aktionen zu Ihrem Aktionsdatensatz hinzu. Sie können bis zu 10 Aktionen gleichzeitig importieren. In diesem Abschnitt wird davon ausgegangen, dass Sie bereits einen Actions-Datensatz erstellt haben. Hinweise zum Erstellen von Datensätzen finden Sie unter[Erstellen eines Schemas und eines Datensatzes](data-prep-creating-datasets.md).

Verwenden Sie den folgenden `put-actions` Befehl, um eine oder mehrere Aktionen mit dem AWS CLI hinzuzufügen. `dataset arn`Ersetzen Sie es durch den Amazon-Ressourcennamen (ARN) Ihres Datensatzes und `actionId` durch die ID der Aktion. Wenn sich eine Aktion mit derselben bereits in Ihrem Aktionen-Datensatz `actionId` befindet, ersetzt Amazon Personalize sie durch die neue.

Denn `properties` ersetzen Sie für jedes Feld in Ihrem Actions-Datensatz das `propertyName` durch den Feldnamen aus Ihrem Schema in Camelcase. Zum Beispiel wäre ACTION\$1EXPIRATION\$1TIMESTAMP und CREATION\$1TIMESTAMP wäre CreationTimeStamp. `actionExpirationTimestamp` `property data`Ersetzen Sie es durch die Daten für die Eigenschaft.

```
aws personalize-events put-actions \
  --dataset-arn dataset arn \
  --actions '[{
      "actionId": "actionId", 
      "properties": "{\"propertyName\": "\property data\"}" 
    }, 
    {
      "actionId": "actionId", 
      "properties": "{\"propertyName\": "\property data\"}" 
    }]'
```

## Aktionen einzeln importieren (AWS SDKs)
<a name="importing-actions-cli-sdk"></a>

Fügen Sie mithilfe der PutActions Operation eine oder mehrere Aktionen zu Ihrem Aktionsdatensatz hinzu. Sie können bis zu 10 Aktionen mit einem einzigen `PutActions` Aufruf importieren. Wenn sich eine Aktion mit derselben bereits in Ihrem Aktionen-Datensatz `actionId` befindet, ersetzt Amazon Personalize sie durch die neue. In diesem Abschnitt wird davon ausgegangen, dass Sie bereits einen Actions-Datensatz erstellt haben. Hinweise zum Erstellen von Datensätzen finden Sie unter[Erstellen eines Schemas und eines Datensatzes](data-prep-creating-datasets.md).

 Der folgende Code zeigt, wie Sie Ihrem Aktionen-Datensatz eine oder mehrere Aktionen hinzufügen können. Geben Sie für jede Aktion den an`actionId`. Wenn sich eine Aktion mit derselben bereits in Ihrem Aktionen-Datensatz `actionId` befindet, ersetzt Amazon Personalize sie durch die neue. Denn `properties` ersetzen Sie für jedes weitere Feld in Ihrem Actions-Datensatz das `propertyName` durch den Feldnamen aus Ihrem Schema in Camelcase. Zum Beispiel wäre ACTION\$1EXPIRATION\$1TIMESTAMP und CREATION\$1TIMESTAMP wäre CreationTimeStamp. `actionExpirationTimestamp` `property data`Ersetzen Sie es durch die Daten für die Eigenschaft. 

```
import boto3

personalize_events = boto3.client(service_name='personalize-events')

personalize_events.put_actions(
    datasetArn = 'dataset arn',
    actions = [{
      'actionId': 'actionId',
      'properties': "{\"propertyName\": \"property value\"}"   
      },
      {
      'actionId': 'actionId',
      'properties': "{\"propertyName\": \"property value\"}"   
      }]
)
```