

Amazon Fraud Detector ist seit dem 7. November 2025 nicht mehr für Neukunden geöffnet. Funktionen, die Amazon Fraud Detector ähneln, finden Sie SageMaker unter Amazon AutoGluon, und AWS WAF.

Die vorliegende Übersetzung wurde maschinell erstellt. Im Falle eines Konflikts oder eines Widerspruchs zwischen dieser übersetzten Fassung und der englischen Fassung (einschließlich infolge von Verzögerungen bei der Übersetzung) ist die englische Fassung maßgeblich.

# Speichern Sie Ihre Eventdaten intern mit Amazon Fraud Detector
<a name="storing-event-data-afd"></a>

Sie können sich dafür entscheiden, Ereignisdaten in Amazon Fraud Detector zu speichern und die gespeicherten Daten später zum Trainieren Ihrer Modelle zu verwenden. Durch das Speichern von Ereignisdaten in Amazon Fraud Detector können Sie Modelle trainieren, die automatisch berechnete Variablen verwenden, um die Leistung zu verbessern, die Modellumschulung zu vereinfachen und Betrugsbezeichnungen zu aktualisieren, um die Feedbackschleife des maschinellen Lernens zu schließen. Ereignisse werden auf der Ereignistyp-Ressourcenebene gespeichert, sodass alle Ereignisse desselben Ereignistyps zusammen in einem einzigen Ereignistyp-Datensatz gespeichert werden. Im Rahmen der Definition eines Ereignistyps können Sie optional angeben, ob Ereignisse für diesen *Ereignistyp gespeichert werden sollen, indem Sie die Einstellung Event Ingest in der Amazon Fraud Detector* Detector-Konsole umschalten. 

Sie können entweder einzelne Ereignisse speichern oder eine große Anzahl von Ereignisdatensätzen in Amazon Fraud Detector importieren. Einzelne Ereignisse können mithilfe der [GetEventPrediction](https://docs.aws.amazon.com//frauddetector/latest/api/API_GetEventPrediction.html)API oder der API gestreamt werden. [SendEvent](https://docs.aws.amazon.com//frauddetector/latest/api/API_SendEvent.html) Große Datensätze können mithilfe der Batch-Importfunktion in der Amazon Fraud Detector-Konsole oder mithilfe der [CreateBatchImportJob](https://docs.aws.amazon.com//frauddetector/latest/api/API_CreateBatchImportJob.html)API schnell und einfach in Amazon Fraud Detector importiert werden.

Sie können die Amazon Fraud Detector Detector-Konsole jederzeit verwenden, um die Anzahl der Ereignisse zu überprüfen, die bereits für jeden Ereignistyp gespeichert wurden.

# Bereiten Sie die Ereignisdaten für die Speicherung vor
<a name="prepare-storage-event-data"></a>

Ereignisdaten, die intern bei Amazon Fraud Detector gespeichert werden, werden auf `Event Type` Ressourcenebene gespeichert. Somit werden alle Ereignisdaten, die aus demselben Ereignis stammen, in einem einzigen gespeichert`Event Type`. Die gespeicherten Ereignisse können später verwendet werden, um ein neues Modell zu trainieren oder ein vorhandenes Modell erneut zu trainieren. Wenn Sie ein Modell mit den gespeicherten Ereignisdaten trainieren, können Sie optional einen Zeitraum für Ereignisse angeben, um die Größe Ihres Trainingsdatensatzes zu begrenzen. 

Jedes Mal, wenn Sie Ihre Daten in Amazon Fraud Detector speichern, indem Sie die Amazon Fraud Detector-Konsole, die `SendEvent` API oder die `CreateBatchImportJob` API verwenden, validiert Amazon Fraud Detector Ihre Daten vor dem Speichern. Wenn Ihre Daten nicht validiert werden können, werden die Ereignisdaten nicht gespeichert.

**Voraussetzungen für die interne Speicherung von Daten mit Amazon Fraud Detector**
+ Um sicherzustellen, dass Ihre Eventdaten die Validierung bestehen und der Datensatz erfolgreich gespeichert wird, stellen Sie sicher, dass Sie die Erkenntnisse aus dem [Data Models Explorer](https://docs.aws.amazon.com/frauddetector/latest/ug/create-event-dataset.html#prepare-event-dataset) zur Vorbereitung Ihres Datensatzes verwendet haben. 
+ Es wurde ein Ereignistyp für die Ereignisdaten erstellt, die Sie bei Amazon Fraud Detector speichern möchten. Falls nicht, folgen Sie den Anweisungen zum [Erstellen eines Ereignistyps](https://docs.aws.amazon.com//frauddetector/latest/ug/create-event-type.html).

## Intelligente Datenvalidierung
<a name="smart-data-validation"></a>

Wenn Sie Ihren Datensatz für den Batch-Import in die Amazon Fraud Detector-Konsole hochladen, verwendet Amazon Fraud Detector Smart Data Validation (SDV), um Ihren Datensatz vor dem Import Ihrer Daten zu validieren. SDV scannt die hochgeladene Datendatei und identifiziert Probleme wie fehlende Daten und falsches Format oder Datentypen. Zusätzlich zur Validierung Ihres Datensatzes stellt SDV auch einen Validierungsbericht zur Verfügung, in dem alle identifizierten Probleme aufgeführt sind und Maßnahmen zur Behebung der Probleme vorgeschlagen werden, die am stärksten ausgeprägt sind. Einige der von SDV identifizierten Probleme sind möglicherweise kritisch und müssen behoben werden, bevor Amazon Fraud Detector Ihren Datensatz erfolgreich importieren kann. Weitere Informationen finden Sie unter [Bericht zur intelligenten Datenvalidierung](storing-events-batch-import.md#sdv-validation-report). 

Das SDV validiert Ihren Datensatz auf Dateiebene und auf Datenebene (Zeilenebene). Auf Dateiebene scannt SDV Ihre Datendatei und identifiziert Probleme wie unzureichende Zugriffsberechtigungen für die Datei, falsche Dateigröße, falsches Dateiformat und falsche Header (Ereignismetadaten und Ereignisvariablen). Auf Datenebene scannt SDV alle Ereignisdaten (Zeile) und identifiziert Probleme wie falsches Datenformat, Datenlänge, Zeitstempelformat und Nullwerte. 

Smart Data Validation ist derzeit nur in der Amazon Fraud Detector Detector-Konsole verfügbar und die Validierung ist standardmäßig aktiviert. Wenn Sie nicht möchten, dass Amazon Fraud Detector die Smart Data Validation verwendet, bevor Sie Ihren Datensatz importieren, schalten Sie die Validierung in der Amazon Fraud Detector Detector-Konsole aus, wenn Sie Ihren Datensatz hochladen. 

## Validierung gespeicherter Daten bei Verwendung unseres SDK APIs AWS
<a name="validating-stored-data-api"></a>

Beim Hochladen von Ereignissen über den `CreateBatchImportJob ` API-Vorgang `SendEvent``GetEventPrediction`,, oder überprüft Amazon Fraud Detector Folgendes:
+ Die EventIngestion Einstellung für diesen Ereignistyp ist AKTIVIERT.
+ Die Zeitstempel der Ereignisse können nicht aktualisiert werden. Ein Ereignis mit einer wiederholten Ereignis-ID und einem anderen EVENT\$1TIMESTAMP wird als Fehler behandelt.
+ Variablennamen und -werte entsprechen dem erwarteten Format. Weitere Informationen finden Sie unter [Erstellen Sie eine Variable](create-a-variable.md).
+ Erforderliche Variablen werden mit einem Wert gefüllt.
+ Alle Event-Zeitstempel sind nicht älter als 18 Monate und liegen nicht in der future.

# Speichern Sie Ereignisdaten mithilfe des Batch-Imports
<a name="storing-events-batch-import"></a>

Mit der Batch-Importfunktion können Sie mithilfe der Konsole, der API oder des AWS-SDK schnell und einfach große historische Ereignisdatensätze in Amazon Fraud Detector hochladen. Um den Batch-Import zu verwenden, erstellen Sie eine Eingabedatei im CSV-Format, die all Ihre Eventdaten enthält, laden Sie die CSV-Datei in den Amazon S3 S3-Bucket hoch und starten Sie einen *Importjob*. Amazon Fraud Detector validiert die Daten zunächst anhand des Ereignistyps und importiert dann automatisch den gesamten Datensatz. Nachdem die Daten importiert wurden, können sie für das Training neuer Modelle oder für das erneute Training vorhandener Modelle verwendet werden.

## Eingabe- und Ausgabedateien
<a name="input-output-batch"></a>

Die CSV-Eingabedatei muss Header enthalten, die den im zugehörigen Ereignistyp definierten Variablen entsprechen, sowie vier obligatorische Variablen. Weitere Informationen finden Sie unter [Bereiten Sie die Ereignisdaten für die Speicherung vor](prepare-storage-event-data.md). Die maximale Größe der Eingabedatendatei beträgt 20 Gigabyte (GB) oder etwa 50 Millionen Ereignisse. Die Anzahl der Ereignisse hängt von der Größe Ihrer Veranstaltung ab. Wenn der Importauftrag erfolgreich war, ist die Ausgabedatei leer. Wenn der Import nicht erfolgreich war, enthält die Ausgabedatei die Fehlerprotokolle. 

## Erstellen Sie eine CSV-Datei
<a name="create-csv-stored-data"></a>

Amazon Fraud Detector importiert nur Daten aus Dateien, die im CSV-Format (Comma Separated Values) vorliegen. Die erste Zeile Ihrer CSV-Datei muss Spaltenüberschriften enthalten, die genau den Variablen entsprechen, die im zugehörigen Ereignistyp definiert sind, sowie vier obligatorische Variablen: EVENT\$1ID, EVENT\$1TIMESTAMP, ENTITY\$1ID und ENTITY\$1TYPE. Sie können optional auch EVENT\$1LABEL und LABEL\$1TIMESTAMP einbeziehen (LABEL\$1TIMESTAMP ist erforderlich, wenn EVENT\$1LABEL enthalten ist). 

**Definieren Sie obligatorische Variablen**

Obligatorische Variablen werden als Ereignismetadaten betrachtet und müssen in Großbuchstaben angegeben werden. Ereignismetadaten werden automatisch für das Modelltraining berücksichtigt. In der folgenden Tabelle sind die obligatorischen Variablen, eine Beschreibung der einzelnen Variablen und das erforderliche Format für die Variable aufgeführt.


| Name | Description | Voraussetzungen | 
| --- | --- | --- | 
|  EVENT\$1ID  |  Eine Kennung für das Ereignis. Wenn es sich bei Ihrer Veranstaltung beispielsweise um eine Online-Transaktion handelt, kann die EVENT\$1ID die Transaktionsreferenznummer sein, die Ihrem Kunden zur Verfügung gestellt wurde.  |  [\[See the AWS documentation website for more details\]](http://docs.aws.amazon.com/de_de/frauddetector/latest/ug/storing-events-batch-import.html)  | 
|  EVENT\$1TIMESTAMP  |  Der Zeitstempel, zu dem das Ereignis eingetreten ist. Der Zeitstempel muss dem Standard ISO 8601 in UTC entsprechen.  |  [\[See the AWS documentation website for more details\]](http://docs.aws.amazon.com/de_de/frauddetector/latest/ug/storing-events-batch-import.html)  | 
|  ENTITY\$1ID  |  Eine Kennung für die Entität, die das Ereignis durchführt.  |  [\[See the AWS documentation website for more details\]](http://docs.aws.amazon.com/de_de/frauddetector/latest/ug/storing-events-batch-import.html)  | 
|  ENTITY\$1TYPE  |  Die Entität, die das Ereignis durchführt, z. B. ein Händler oder ein Kunde  |  ENTITY\$1TYPE ist für Batch-Importaufträge erforderlich  | 
|  EVENT\$1LABEL  |  Klassifiziert das Ereignis als oder `fraudulent` `legitimate`  |  EVENT\$1LABEL ist erforderlich, wenn LABEL\$1TIMESTAMP enthalten ist  | 
|  LABEL\$1TIMESTAMP  |  Der Zeitstempel, zu dem das Event-Label zuletzt gefüllt oder aktualisiert wurde  |  [\[See the AWS documentation website for more details\]](http://docs.aws.amazon.com/de_de/frauddetector/latest/ug/storing-events-batch-import.html)  | 

## Laden Sie die CSV-Datei für den Batch-Import auf Amazon S3 hoch
<a name="upload-csv-S3-for-batch-import"></a>

Nachdem Sie eine CSV-Datei mit Ihren Daten erstellt haben, laden Sie die Datei in Ihren Amazon Simple Storage Service (Amazon S3) -Bucket hoch.

**So laden Sie Ereignisdaten in einen Amazon S3 S3-Bucket hoch**

1. Melden Sie sich bei der an AWS-Managementkonsole und öffnen Sie die Amazon S3 S3-Konsole unter [https://console.aws.amazon.com/s3/](https://console.aws.amazon.com/s3/).

1. Wählen Sie **Create Bucket (Bucket erstellen)** aus.

   Der Assistent **Create Bucket** (Bucket erstellen) wird geöffnet.

1. Geben Sie unter **Bucket name (Bucket-Name)** einen DNS-kompatiblen Namen für Ihren Bucket ein.

   Der Bucket-Name muss ...:
   + überall in Amazon S3 eindeutig sein.
   + zwischen 3 und 63 Zeichen lang sein,
   + Enthält keine Großbuchstaben.
   + mit einem Kleinbuchstaben oder einer Zahl beginnen.

   Der Name eines einmal erstellten Buckets kann nicht nachträglich geändert werden. Informationen zur Benennung von [Buckets finden Sie unter Regeln zur Benennung](https://docs.aws.amazon.com/AmazonS3/latest/userguide/BucketRestrictions.html#bucketnamingrules) von Buckets im *Amazon Simple Storage Service-Benutzerhandbuch*.
**Wichtig**  
Vermeiden Sie, vertrauliche Informationen, wie Kontonummern, in den Bucket-Namen einzubeziehen. Der Bucket-Name ist in dem Punkt sichtbar URLs , auf den die Objekte im Bucket verweisen.

1. Wählen Sie **unter Region** die AWS Region aus, in der sich der Bucket befinden soll. Sie müssen dieselbe Region auswählen, in der Sie Amazon Fraud Detector verwenden, d. h. USA Ost (Nord-Virginia), USA Ost (Ohio), USA West (Oregon), Europa (Irland), Asien-Pazifik (Singapur) oder Asien-Pazifik (Sydney). 

1. Wählen Sie unter **Bucket settings for Block Public Access (Bucket-Einstellungen für den öffentlichen Zugriff)** die Einstellungen für den öffentlichen Zugriff aus, die Sie auf den Bucket anwenden möchten. 

   Wir empfehlen, dass Sie alle Einstellungen aktiviert lassen. Weitere Informationen zum Sperren des öffentlichen Zugriffs finden Sie unter [Sperren des öffentlichen Zugriffs auf Ihren Amazon S3 S3-Speicher](https://docs.aws.amazon.com/AmazonS3/latest/dev/access-control-block-public-access.html) im *Amazon Simple Storage Service-Benutzerhandbuch*.

1. Wählen Sie **Create Bucket** (Bucket erstellen) aus.

1. Laden Sie die Trainingsdatendatei in Ihren Amazon S3 S3-Bucket hoch. Notieren Sie sich den Amazon S3 S3-Speicherpfad für Ihre Trainingsdatei (z. B. s3://bucketname/object.csv).

## Batch-Import von Ereignisdaten in die Amazon Fraud Detector Detector-Konsole
<a name="batch-import-event-data"></a>

Sie können ganz einfach eine große Anzahl Ihrer Ereignisdatensätze in die Amazon Fraud Detector Detector-Konsole importieren, indem Sie die `CreateBatchImportJob` API oder das AWS SDK verwenden. Bevor Sie fortfahren, stellen Sie sicher, dass Sie die Anweisungen zur Vorbereitung Ihres Datensatzes als CSV-Datei befolgt haben. Stellen Sie sicher, dass Sie die CSV-Datei auch in einen Amazon S3 S3-Bucket hochgeladen haben.

**Verwenden der Amazon Fraud Detector Detector-Konsole**

**Um Ereignisdaten stapelweise in die Konsole zu importieren**

1. Öffnen Sie die AWS-Konsole, melden Sie sich bei Ihrem Konto an und navigieren Sie zu Amazon Fraud Detector.

1. Wählen Sie im linken Navigationsbereich **Ereignisse** aus.

1. Wählen Sie Ihren Ereignistyp.

1. Wählen Sie den Tab **Gespeicherte Ereignisse** aus.

1. **Vergewissern Sie sich, dass im **Detailbereich für gespeicherte Ereignisse** die Option **Ereigniserfassung aktiviert** ist.**

1. Wählen **Sie im Bereich Ereignisdaten importieren** die Option **Neuer** Import aus.

1. Geben Sie auf der **Importseite für neue Ereignisse** die folgenden Informationen ein:
   + [Empfohlen] Lassen Sie die Einstellung **Smart Data Validation für diesen Datensatz aktivieren — neu** auf die Standardeinstellung eingestellt.
   + Wählen Sie **unter IAM-Rolle für Daten** die IAM-Rolle aus, die Sie für den Amazon S3 S3-Bucket erstellt haben, der die CSV-Datei enthält, die Sie importieren möchten.
   + Geben Sie unter **Speicherort der Eingabedaten** den S3-Speicherort ein, an dem sich Ihre CSV-Datei befindet. 
   + Wenn Sie einen separaten Speicherort für Ihre Importergebnisse angeben möchten, klicken Sie auf **Separate Datenposition für Eingaben und Ergebnisse und** geben Sie einen gültigen Amazon S3 S3-Bucket-Speicherort an.
**Wichtig**  
Stellen Sie sicher, dass die von Ihnen ausgewählte IAM-Rolle über Leseberechtigungen für Ihren Amazon S3 S3-Eingabe-Bucket und Schreibberechtigungen für Ihren Amazon S3 S3-Ausgabe-Bucket verfügt.

1. Wählen Sie **Starten**.

1. In der Spalte **Status** im Bereich **Ereignisdaten importieren** wird der Status Ihres Validierungs- und Importauftrags angezeigt. Das Banner oben bietet eine allgemeine Beschreibung des Status, während Ihr Datensatz zuerst die Validierung und dann den Import durchläuft.

1. Folgen Sie den Anweisungen unter[Überwachen Sie den Fortschritt der Datensatzvalidierung und des Importvorgangs](#monitor-progress-sdv).

### Überwachen Sie den Fortschritt der Datensatzvalidierung und des Importvorgangs
<a name="monitor-progress-sdv"></a>

Wenn Sie die Amazon Fraud Detector-Konsole verwenden, um einen Batch-Importjob auszuführen, validiert Amazon Fraud Detector standardmäßig Ihren Datensatz vor dem Import. Sie können den Fortschritt und den Status von Validierungs- und Importaufträgen auf der **Importseite Neue Ereignisse** der Amazon Fraud Detector Detector-Konsole überwachen. Ein Banner oben auf der Seite bietet eine kurze Beschreibung der Validierungsergebnisse und des Status des Importauftrags. Abhängig von den Validierungsergebnissen und dem Status Ihres Importauftrags müssen Sie möglicherweise Maßnahmen ergreifen, um eine erfolgreiche Validierung und einen erfolgreichen Import Ihres Datensatzes sicherzustellen.

Die folgende Tabelle enthält Einzelheiten zu den Maßnahmen, die Sie je nach Ergebnis der Überprüfungs- und Importvorgänge ergreifen müssen.


| Banner-Nachricht | Status | Bedeutung | Was sollte ich tun | 
| --- | --- | --- | --- | 
| Die Datenvalidierung hat begonnen | Die Validierung ist im Gange | SDV hat mit der Validierung Ihres Datensatzes begonnen | Warten Sie, bis sich der Status ändert | 
| Die Datenvalidierung kann aufgrund von Fehlern in Ihrem Datensatz nicht fortgesetzt werden. Korrigieren Sie Fehler in Ihrer Datendatei und starten Sie einen neuen Importjob. Weitere Informationen finden Sie im Validierungsbericht | Die Überprüfung ist fehlgeschlagen | SDV hat Probleme in Ihrer Datendatei festgestellt. Diese Probleme müssen für einen erfolgreichen Import Ihres Datensatzes behoben werden. | Wählen Sie im Bereich Ereignisdaten importieren die Job-ID aus und sehen Sie sich den Validierungsbericht an. Folgen Sie den Empfehlungen im Bericht, um alle aufgelisteten Fehler zu beheben. Weitere Informationen finden Sie unter [Verwenden Sie den Validierungsbericht](#using-sdv-validation-report). | 
| Der Datenimport wurde gestartet. Die Validierung wurde erfolgreich abgeschlossen | Import läuft | Ihr Datensatz hat die Validierung bestanden. AFD hat mit dem Import Ihres Datensatzes begonnen | Warten Sie, bis sich der Status ändert | 
| Die Validierung wurde mit Warnungen abgeschlossen. Der Datenimport wurde gestartet | Import läuft | Bei einigen Daten in Ihrem Datensatz ist die Überprüfung fehlgeschlagen. Die Daten, die die Validierung bestanden haben, erfüllen jedoch die Mindestanforderungen an die Datengröße für den Import. | Überwachen Sie die Nachricht im Banner und warten Sie, bis sich der Status ändert | 
| Ihre Daten wurden teilweise importiert. Einige Daten haben die Überprüfung nicht bestanden und wurden nicht importiert. Weitere Informationen finden Sie im Validierungsbericht. | Importiert. Der Status zeigt ein Warnsymbol an. | Einige der Daten in Ihrer Datendatei, deren Überprüfung fehlgeschlagen ist, wurden nicht importiert. Die restlichen Daten, die die Validierung bestanden haben, wurden importiert. | Wählen Sie im Bereich Ereignisdaten importieren die Job-ID aus und sehen Sie sich den Validierungsbericht an. Folgen Sie den Empfehlungen in der Tabelle mit den Warnungen auf Datenebene, um die aufgelisteten Warnungen zu beheben. Sie müssen nicht auf alle Warnungen eingehen. Stellen Sie jedoch sicher, dass Ihr Datensatz mehr als 50% der Daten enthält, die die Validierung für einen erfolgreichen Import bestehen. Nachdem Sie die Warnungen behoben haben, starten Sie einen neuen Importjob. Weitere Informationen finden Sie unter [Verwenden Sie den Validierungsbericht](#using-sdv-validation-report). | 
| Der Datenimport ist aufgrund eines Verarbeitungsfehlers fehlgeschlagen. Starten Sie einen neuen Datenimportauftrag | Import fehlgeschlagen | Der Import ist aufgrund eines vorübergehenden Laufzeitfehlers fehlgeschlagen | Starten Sie einen neuen Importauftrag | 
| Die Daten wurden erfolgreich importiert | Importiert | Sowohl die Validierung als auch der Import wurden erfolgreich abgeschlossen | Wählen Sie die Job-ID Ihres Importauftrags aus, um Details anzuzeigen, und fahren Sie dann mit dem Modelltraining fort | 

**Anmerkung**  
Wir empfehlen, 10 Minuten zu warten, nachdem der Datensatz erfolgreich in Amazon Fraud Detector importiert wurde, um sicherzustellen, dass sie vollständig vom System aufgenommen wurden.

### Bericht zur intelligenten Datenvalidierung
<a name="sdv-validation-report"></a>

Der Smart Data Validation erstellt nach Abschluss der Validierung einen Validierungsbericht. Der Validierungsbericht enthält Einzelheiten zu allen Problemen, die der SDV in Ihrem Datensatz identifiziert hat, sowie Vorschläge für Maßnahmen zur Behebung der schwerwiegendsten Probleme. Anhand des Validierungsberichts können Sie feststellen, um welche Probleme es sich handelt, wo sich die Probleme im Datensatz befinden, wie schwerwiegend die Probleme sind und wie sie behoben werden können. Der Validierungsbericht wird auch dann erstellt, wenn die Validierung erfolgreich abgeschlossen wurde. In diesem Fall können Sie den Bericht einsehen, um zu sehen, ob Probleme aufgeführt sind, und falls ja, entscheiden, ob Sie eines dieser Probleme beheben möchten.

**Anmerkung**  
Die aktuelle Version von SDV scannt Ihren Datensatz auf Probleme, die dazu führen könnten, dass der Batch-Import fehlschlägt. Wenn die Validierung und der Batch-Import erfolgreich sind, kann Ihr Datensatz immer noch Probleme aufweisen, die dazu führen können, dass das Modelltraining fehlschlägt. Wir empfehlen Ihnen, Ihren Validierungsbericht auch dann einzusehen, wenn Validierung und Import erfolgreich waren, und alle im Bericht für ein erfolgreiches Modelltraining aufgelisteten Probleme zu beheben. Nachdem Sie die Probleme behoben haben, erstellen Sie einen neuen Batch-Importauftrag. 

**Zugriff auf den Validierungsbericht**

Sie können nach Abschluss der Validierung jederzeit auf den Validierungsbericht zugreifen, indem Sie eine der folgenden Optionen verwenden:

1. Wählen Sie nach Abschluss der Validierung und während der Importaufgabe im oberen Banner die Option **Validierungsbericht anzeigen** aus.

1. Wählen Sie nach Abschluss des Importauftrags im Bereich **Daten für Ereignisse importieren** die Job-ID des gerade abgeschlossenen Importauftrags aus. 

#### Verwenden Sie den Validierungsbericht
<a name="using-sdv-validation-report"></a>

Auf der Seite mit dem Validierungsbericht Ihres Importjobs finden Sie die Details zu diesem Importjob, eine Liste kritischer Fehler, falls solche gefunden wurden, eine Liste mit Warnungen zu bestimmten Ereignissen (Zeilen) in Ihrem Datensatz, sofern sie gefunden wurden, und eine kurze Zusammenfassung Ihres Datensatzes, die Informationen wie ungültige Werte und fehlende Werte für jede Variable enthält.
+ **Jobdetails importieren**

  Stellt Einzelheiten zum Importauftrag bereit. Wenn Ihr Importauftrag fehlgeschlagen ist oder Ihr Datensatz teilweise importiert wurde, wählen Sie **Gehe zur Ergebnisdatei**, um die Fehlerprotokolle der Ereignisse anzuzeigen, die nicht importiert werden konnten. 
+ **Kritische Fehler**

  Enthält Einzelheiten zu den wichtigsten Problemen in Ihrem Datensatz, die von SDV identifiziert wurden. Alle in diesem Bereich aufgeführten Probleme sind kritisch und müssen behoben werden, bevor Sie mit dem Import fortfahren. Wenn Sie versuchen, Ihren Datensatz zu importieren, ohne die kritischen Probleme zu beheben, schlägt Ihr Importauftrag möglicherweise fehl.

  Um die kritischen Probleme zu beheben, befolgen Sie die Empfehlungen für jede Warnung. Nachdem Sie alle im Bereich Kritische Fehler aufgelisteten Probleme behoben haben, erstellen Sie einen neuen Batch-Importauftrag. 
+ **Warnungen auf Datenebene**

  Bietet eine Zusammenfassung der Warnungen für bestimmte Ereignisse (Zeilen) in Ihrem Datensatz. Wenn der Bereich mit den Warnungen auf Datenebene gefüllt ist, ist die Überprüfung einiger Ereignisse in Ihrem Datensatz fehlgeschlagen und sie wurden nicht importiert. 

  Für jede Warnung wird in der Spalte **Beschreibung** die Anzahl der Ereignisse angezeigt, bei denen das Problem aufgetreten ist. Und das **Beispielereignis IDs** enthält eine unvollständige Liste von Beispielereignissen, die IDs Sie als Ausgangspunkt verwenden können, um die restlichen Ereignisse zu finden, bei denen das Problem auftritt. Verwenden Sie die in der Warnung enthaltene **Empfehlung**, um das Problem zu beheben. Verwenden Sie auch die Fehlerprotokolle aus Ihrer Ausgabedatei, um weitere Informationen zu dem Problem zu erhalten. Die Fehlerprotokolle werden für alle Ereignisse generiert, bei denen der Batch-Import fehlgeschlagen ist. Um auf Fehlerprotokolle zuzugreifen, wählen Sie im Bereich „**Auftragsdetails importieren**“ die Option **Gehe zur Ergebnisdatei** aus. 
**Anmerkung**  
Wenn bei mehr als 50% der Ereignisse (Zeilen) in Ihrem Datensatz die Überprüfung fehlgeschlagen ist, schlägt auch der Importauftrag fehl. In diesem Fall müssen Sie die Daten korrigieren, bevor Sie einen neuen Importauftrag starten. 
+ **Zusammenfassung des Datensatzes** 

   Bietet eine Zusammenfassung des Validierungsberichts Ihres Datensatzes. Wenn in der Spalte Anzahl der Warnungen mehr als 0 Warnungen angezeigt werden, entscheiden Sie, ob Sie diese Warnung korrigieren müssen. Wenn in der Spalte **Anzahl der Warnungen** 0 s angezeigt werden, fahren Sie mit dem Training Ihres Modells fort. 

## Batch-Import von Ereignisdaten mit dem AWS-SDK SDK for Python (Boto3)
<a name="batch-import-data-sdk"></a>

Das folgende Beispiel zeigt eine Beispielanforderung für [CreateBatchImportJob](https://docs.aws.amazon.com//frauddetector/latest/api/API_CreateBatchImportJob.html)eine API. Ein Batch-Importauftrag muss eine **JobID**, einen InputPath, einen ****OutputPath**** und enthalten. **eventTypeName**iamRoleArn**** Die JobID darf nicht dieselbe ID eines früheren Jobs enthalten, es sei denn, der Job ist im Status CREATE\$1FAILED vorhanden. InputPath und OutputPath müssen gültige S3-Pfade sein. Sie können die Angabe des Dateinamens im OutputPath deaktivieren, müssen jedoch trotzdem einen gültigen S3-Bucket-Speicherort angeben. Das eventTypeName und iamRoleArn muss existieren. Die IAM-Rolle muss Leseberechtigungen für die Eingabe des Amazon S3 S3-Buckets und Schreibberechtigungen für die Ausgabe des Amazon S3 S3-Buckets gewähren. 

```
import boto3
fraudDetector = boto3.client('frauddetector')

fraudDetector.create_batch_import_job (
jobId = 'sample_batch_import',
inputPath = 's3://bucket_name/input_file_name.csv',
outputPath = 's3://bucket_name/',
eventTypeName = 'sample_registration',
iamRoleArn: 'arn:aws:iam::************:role/service-role/AmazonFraudDetector-DataAccessRole-*************'
)
```

## Batch-Importauftrag abbrechen
<a name="cancel-batch-import"></a>

Sie können einen laufenden Batch-Importauftrag jederzeit in der Amazon Fraud Detector Detector-Konsole mit der `CancelBatchImportJob` API oder dem AWS-SDK stornieren. 

**Um einen Batch-Importauftrag in der Konsole abzubrechen,**

1. Öffnen Sie die AWS-Konsole, melden Sie sich bei Ihrem Konto an und navigieren Sie zu Amazon Fraud Detector.

1. Wählen Sie im linken Navigationsbereich **Ereignisse** aus.

1. Wählen Sie Ihren Ereignistyp.

1. Wählen Sie den Tab **Gespeicherte Ereignisse** aus.

1. Wählen Sie im Bereich **Daten zu Ereignissen importieren** die Job-ID eines laufenden Importauftrags aus, den Sie abbrechen möchten.

1. Klicken Sie auf der Seite mit dem Event-Job auf **Aktionen** und wählen Sie **Import von Ereignissen abbrechen** aus.

1. Wählen Sie **Ereignisimport beenden**, um den Batch-Importauftrag abzubrechen.

### Abbrechen eines Batch-Importauftrags mit dem AWS-SDK SDK for Python (Boto3)
<a name="cancel-batch-import-sdk"></a>

Das folgende Beispiel zeigt eine Beispielanforderung für die API. `CancelBatchImportJob` Der Importauftrag zum Abbrechen muss die Auftrags-ID eines laufenden Batch-Importauftrags enthalten. 

```
import boto3
fraudDetector = boto3.client('frauddetector')
fraudDetector.cancel_batch_import_job (
    jobId = 'sample_batch'
)
```

# Speichern Sie Ereignisdaten mithilfe des GetEventPredictions API-Vorgangs
<a name="storing-events-geteventprediction-api"></a>

Standardmäßig werden alle Ereignisse, die zur Auswertung an die `GetEventPrediction` API gesendet werden, in Amazon Fraud Detector gespeichert. Das bedeutet, dass Amazon Fraud Detector automatisch Ereignisdaten speichert, wenn Sie eine Prognose erstellen, und diese Daten verwendet, um berechnete Variablen nahezu in Echtzeit zu aktualisieren. Sie können die Datenspeicherung deaktivieren, indem Sie in der Amazon Fraud Detector Detector-Konsole zum **Ereignistyp navigieren und die Ereignisaufnahme** auf AUS setzen oder den EventIngestion Wert mithilfe der `PutEventType` API-Operation auf DISABLED aktualisieren. Weitere Informationen zum `GetEventPrediction` API-Vorgang finden Sie unter. [Betrugsprognosen](getting-fraud-predictions.md) 

**Wichtig**  
Es wird dringend empfohlen, die *Ereigniserfassung für einen Ereignistyp* aktiviert zu lassen, nachdem Sie sie aktiviert haben. Wenn Sie die Ereigniserfassung für denselben Ereignistyp deaktivieren und dann Vorhersagen generieren, kann dies zu inkonsistentem Verhalten führen.

# Speichern Sie Ereignisdaten mithilfe des API-Vorgangs SendEvent
<a name="storing-events-sendevent-api"></a>

Sie können den `SendEvent` API-Vorgang verwenden, um Ereignisse in Amazon Fraud Detector zu speichern, ohne Betrugsprognosen für diese Ereignisse zu erstellen. Sie können den `SendEvent` Vorgang beispielsweise verwenden, um einen historischen Datensatz hochzuladen, den Sie später zum Trainieren eines Modells verwenden können.

**Zeitstempelformate für Ereignisse für die API SendEvent **

Wenn Sie Ereignisdaten mithilfe der `SendEvent` API speichern, müssen Sie sicherstellen, dass Ihr Event-Zeitstempel das erforderliche Format hat. Amazon Fraud Detector unterstützt die folgenden date/timestamp Formate:
+ %yyyy-%mm-%ddt%HH: %mm: %sSz (ISO 8601-Standard nur in UTC ohne Millisekunden)

  Beispiel: 2019-11-30T 13:01:01 Z 
+ %yyyy/%mm/%dd %hh: %mm: %ss (AM/PM)

  Beispiele: 30.11.2019 13:01:01 Uhr oder 30.11.2019 13:01:01 
+ %mm/%dd/%yyyy %hh: %mm: %ss

  Beispiele: 30.11.2019 13:01:01 Uhr, 30.11.2019 13:01:01 
+ %mm/%dd/%yy %hh: %mm: %ss

  Beispiele: 30.11.19 13:01:01 Uhr, 30.11.19 13:01:01 

Amazon Fraud Detector geht bei der Analyse von date/timestamp Formaten für Ereigniszeitstempel von den folgenden Annahmen aus:
+ Wenn Sie den ISO 8601-Standard verwenden, muss dieser exakt mit der vorherigen Spezifikation übereinstimmen
+ Wenn Sie eines der anderen Formate verwenden, gibt es zusätzliche Flexibilität:
  + Für Monate und Tage können Sie ein- oder zweistellige Zahlen angeben. Zum Beispiel ist der 12.01.2019 ein gültiges Datum.
  + Sie müssen hh:mm:ss nicht angeben, wenn Sie sie nicht haben (das heißt, Sie können einfach ein Datum angeben). Sie können auch nur eine Teilmenge von Stunden und Minuten angeben (z. B. hh:mm). Die bloße Angabe von Stunden wird nicht unterstützt. Millisekunden werden ebenfalls nicht unterstützt.
  + Wenn Sie AM/PM Beschriftungen angeben, wird von einer 12-Stunden-Uhr ausgegangen. Liegen keine AM/PM Informationen vor, wird von einer 24-Stunden-Uhrzeit ausgegangen.
  + Sie können „/“ oder „-“ als Trennzeichen für die Datumselemente verwenden. Für die Zeitstempelelemente wird „:“ vorausgesetzt.

Im Folgenden finden Sie ein Beispiel für einen API-Aufruf`SendEvent`. 

```
import boto3
fraudDetector = boto3.client('frauddetector')

fraudDetector.send_event(
            eventId        = '802454d3-f7d8-482d-97e8-c4b6db9a0428',
            eventTypeName  = 'sample_registration',
            eventTimestamp = '2020-07-13T23:18:21Z',
            eventVariables =  {
    			'email_address' : 'johndoe@exampledomain.com',
    			'ip_address' : '1.2.3.4'},
            assignedLabel  = ‘legit’,
            labelTimestamp = '2020-07-13T23:18:21Z',
            entities       = [{'entityType':'sample_customer', 'entityId':'12345'}],        
)
```

# Rufen Sie Details zu gespeicherten Ereignisdaten ab
<a name="get-stored-event-details"></a>

Nachdem Sie die Ereignisdaten in Amazon Fraud Detector gespeichert haben, können Sie mithilfe der [GetEvent](https://docs.aws.amazon.com//frauddetector/latest/api/API_GetEvent.html)API die neuesten Daten überprüfen, die für ein Ereignis gespeichert wurden. Der folgende Beispielcode überprüft die neuesten Daten, die für das `sample_registration` Ereignis gespeichert wurden.

```
import boto3
fraudDetector = boto3.client('frauddetector')

fraudDetector.get_event(
            eventId        = '802454d3-f7d8-482d-97e8-c4b6db9a0428',
            eventTypeName  = 'sample_registration'
)
```

# Metriken des gespeicherten Ereignisdatensatzes anzeigen
<a name="view-stored-event-metrics"></a>

Für jeden Ereignistyp können Sie in der Amazon Fraud Detector Detector-Konsole Kennzahlen wie die Anzahl der gespeicherten Ereignisse, die Gesamtgröße Ihrer gespeicherten Ereignisse und die Zeitstempel der frühesten und letzten gespeicherten Ereignisse anzeigen. 

**Um gespeicherte Ereignismetriken eines Ereignistyps anzuzeigen,**

1. Öffnen Sie die AWS Konsole und melden Sie sich bei Ihrem Konto an. Navigieren Sie zu Amazon Fraud Detector.

1. Wählen Sie im linken Navigationsbereich **Ereignisse** aus.

1. Wählen Sie Ihren Ereignistyp.

1. Wählen Sie den Tab **Gespeicherte Ereignisse** aus.

1. Im **Detailbereich für gespeicherte Ereignisse werden** die Metriken angezeigt. Diese Metriken werden automatisch einmal täglich aktualisiert.

1. Klicken Sie optional auf **Event-Metriken aktualisieren**, um Ihre Metriken manuell zu aktualisieren. 
**Anmerkung**  
Wenn Sie Ihre Daten gerade importiert haben, empfehlen wir, nach Abschluss des Datenimports 5 bis 10 Minuten zu warten, um die Metriken zu aktualisieren und anzuzeigen.