Speichern Sie Ereignisdaten mithilfe des Batch-Imports - Amazon Fraud Detector

Die vorliegende Übersetzung wurde maschinell erstellt. Im Falle eines Konflikts oder eines Widerspruchs zwischen dieser übersetzten Fassung und der englischen Fassung (einschließlich infolge von Verzögerungen bei der Übersetzung) ist die englische Fassung maßgeblich.

Speichern Sie Ereignisdaten mithilfe des Batch-Imports

Mit der Batch-Importfunktion können Sie mithilfe der Konsole, der API oder des AWS-SDK schnell und einfach große historische Ereignisdatensätze in Amazon Fraud Detector hochladen. Um den Batch-Import zu verwenden, erstellen Sie eine Eingabedatei im CSV-Format, die all Ihre Eventdaten enthält, laden Sie die CSV-Datei in den Amazon S3 S3-Bucket hoch und starten Sie einen Importjob. Amazon Fraud Detector validiert die Daten zunächst anhand des Ereignistyps und importiert dann automatisch den gesamten Datensatz. Nachdem die Daten importiert wurden, können sie zum Trainieren neuer Modelle oder zum erneuten Trainieren vorhandener Modelle verwendet werden.

Eingabe- und Ausgabedateien

Die CSV-Eingabedatei muss Header enthalten, die den im zugehörigen Ereignistyp definierten Variablen entsprechen, sowie vier obligatorische Variablen. Weitere Informationen finden Sie unter Bereiten Sie die Ereignisdaten für die Speicherung vor. Die maximale Größe der Eingabedatendatei beträgt 20 Gigabyte (GB) oder etwa 50 Millionen Ereignisse. Die Anzahl der Ereignisse hängt von der Größe Ihrer Veranstaltung ab. Wenn der Importauftrag erfolgreich war, ist die Ausgabedatei leer. Wenn der Import nicht erfolgreich war, enthält die Ausgabedatei die Fehlerprotokolle.

Erstellen Sie eine CSV-Datei

Amazon Fraud Detector importiert nur Daten aus Dateien, die im CSV-Format (Comma Separated Values) vorliegen. Die erste Zeile Ihrer CSV-Datei muss Spaltenüberschriften enthalten, die genau den Variablen entsprechen, die im zugehörigen Ereignistyp definiert sind, sowie vier obligatorische Variablen: EVENT_ID, EVENT_TIMESTAMP, ENTITY_ID und ENTITY_TYPE. Sie können optional auch EVENT_LABEL und LABEL_TIMESTAMP einbeziehen (LABEL_TIMESTAMP ist erforderlich, wenn EVENT_LABEL enthalten ist).

Definieren Sie obligatorische Variablen

Obligatorische Variablen werden als Ereignismetadaten betrachtet und müssen in Großbuchstaben angegeben werden. Ereignismetadaten werden automatisch für das Modelltraining berücksichtigt. In der folgenden Tabelle sind die obligatorischen Variablen, eine Beschreibung der einzelnen Variablen und das erforderliche Format für die Variable aufgeführt.

Name Beschreibung Voraussetzungen

EVENT_ID

Eine Kennung für das Ereignis. Wenn es sich bei Ihrer Veranstaltung beispielsweise um eine Online-Transaktion handelt, kann die EVENT_ID die Transaktionsreferenznummer sein, die Ihrem Kunden zur Verfügung gestellt wurde.

  • Die EVENT_ID ist für Batch-Importaufträge erforderlich.

  • Sie muss für dieses Ereignis eindeutig sein.

  • Es sollte Informationen enthalten, die für Ihr Unternehmen von Bedeutung sind.

  • Es muss dem Muster regulärer Ausdrücke entsprechen (zum Beispiel ^[0-9a-z_-]+$.)

  • Es wird nicht empfohlen, einen Zeitstempel an EVENT_ID anzuhängen. Dies kann zu Problemen führen, wenn Sie das Ereignis aktualisieren. Dies liegt daran, dass Sie in diesem Fall genau dieselbe EVENT_ID angeben müssen.

EVENT_TIMESTAMP

Der Zeitstempel, zu dem das Ereignis eingetreten ist. Der Zeitstempel muss dem Standard ISO 8601 in UTC entsprechen.

  • Der EVENT_TIMESTAMP ist für Batch-Importaufträge erforderlich.

  • Es muss in einem der folgenden Formate angegeben werden:

    • %yyyy-%mm-%ddt%HH: %mm: %sSz (ISO 8601-Standard nur in UTC ohne Millisekunden)

      Beispiel: 2019-11-30T 13:01:01 Z

    • %yyyy/%mm/%dd %hh: %mm: %ss (AM/PM)

      Beispiele: 30.11.2019 13:01:01 Uhr oder 30.11.2019 13:01:01

    • %mm/%dd/%yyyy %hh: %mm: %ss

      Beispiele: 30.11.2019 13:01:01 Uhr, 30.11.2019 13:01:01

    • %mm/%dd/%yy %hh: %mm: %ss

      Beispiele: 30.11.19 13:01:01 Uhr, 30.11.19 13:01:01

  • Amazon Fraud Detector geht bei der Analyse von Datums- und Zeitstempelformaten für Ereigniszeitstempel von den folgenden Annahmen aus:

    • Wenn Sie den ISO 8601-Standard verwenden, muss dieser exakt mit der vorherigen Spezifikation übereinstimmen

    • Wenn Sie eines der anderen Formate verwenden, gibt es zusätzliche Flexibilität:

      • Für Monate und Tage können Sie ein- oder zweistellige Zahlen angeben. Beispielsweise ist der 12.01.2019 ein gültiges Datum.

      • Sie müssen hh:mm:ss nicht angeben, wenn Sie sie nicht haben (das heißt, Sie können einfach ein Datum angeben). Sie können auch nur eine Teilmenge von Stunden und Minuten angeben (z. B. hh:mm). Die bloße Angabe von Stunden wird nicht unterstützt. Millisekunden werden ebenfalls nicht unterstützt.

      • Wenn Sie AM/PM labels, a 12-hour clock is assumed. If there is no AM/PM Informationen angeben, wird von einer 24-Stunden-Uhrzeit ausgegangen.

      • Sie können „/“ oder „-“ als Trennzeichen für die Datumselemente verwenden. Für die Zeitstempelelemente wird „:“ vorausgesetzt.

ENTITY_ID

Eine Kennung für die Entität, die das Ereignis durchführt.

  • ENTITY_ID ist für Batch-Importaufträge erforderlich

  • Es muss dem Muster für reguläre Ausdrücke folgen:. ^[0-9A-Za-z_.@+-]+$

  • Wenn die Entitäts-ID zum Zeitpunkt der Auswertung nicht verfügbar ist, geben Sie die Entitäts-ID als unbekannt an.

ENTITY_TYPE

Die Entität, die das Ereignis durchführt, z. B. ein Händler oder ein Kunde

ENTITY_TYPE ist für Batch-Importaufträge erforderlich

EVENT_LABEL

Klassifiziert das Ereignis als oder fraudulent legitimate

EVENT_LABEL ist erforderlich, wenn LABEL_TIMESTAMP enthalten ist

LABEL_TIMESTAMP

Der Zeitstempel, zu dem das Event-Label zuletzt gefüllt oder aktualisiert wurde

  • LABEL_TIMESTAMP ist erforderlich, wenn EVENT_LABEL enthalten ist.

  • Es muss dem Zeitstempelformat entsprechen.

Laden Sie die CSV-Datei für den Batch-Import auf Amazon S3 hoch

Nachdem Sie eine CSV-Datei mit Ihren Daten erstellt haben, laden Sie die Datei in Ihren Amazon Simple Storage Service (Amazon S3) -Bucket hoch.

Um Ereignisdaten in einen Amazon S3 S3-Bucket hochzuladen
  1. Melden Sie sich bei der an AWS Management Console und öffnen Sie die Amazon S3 S3-Konsole unter https://console.aws.amazon.com/s3/.

  2. Wählen Sie Create Bucket (Bucket erstellen) aus.

    Der Assistent Create Bucket (Bucket erstellen) wird geöffnet.

  3. Geben Sie unter Bucket name (Bucket-Name) einen DNS-kompatiblen Namen für Ihren Bucket ein.

    Der Bucket-Name muss ...:

    • überall in Amazon S3 eindeutig sein.

    • zwischen 3 und 63 Zeichen lang sein,

    • Enthält keine Großbuchstaben.

    • mit einem Kleinbuchstaben oder einer Zahl beginnen.

    Der Name eines einmal erstellten Buckets kann nicht nachträglich geändert werden. Informationen zur Benennung von Buckets finden Sie unter Regeln zur Benennung von Buckets im Amazon Simple Storage Service-Benutzerhandbuch.

    Der Name eines einmal erstellten Buckets kann nicht nachträglich geändert werden. Informationen zur Benennung von Buckets finden Sie unter Regeln zur Benennung von Buckets im Amazon Simple Storage Service-Benutzerhandbuch.

    Wichtig

    Vermeiden Sie, vertrauliche Informationen, wie Kontonummern, in den Bucket-Namen einzubeziehen. Der Bucket-Name ist in dem Punkt sichtbar URLs , auf den die Objekte im Bucket verweisen.

  4. Wählen Sie unter Region die AWS Region aus, in der sich der Bucket befinden soll. Sie müssen dieselbe Region auswählen, in der Sie Amazon Fraud Detector verwenden, d. h. USA Ost (Nord-Virginia), USA Ost (Ohio), USA West (Oregon), Europa (Irland), Asien-Pazifik (Singapur) oder Asien-Pazifik (Sydney).

  5. Wählen Sie unter Bucket settings for Block Public Access (Bucket-Einstellungen für den öffentlichen Zugriff) die Einstellungen für den öffentlichen Zugriff aus, die Sie auf den Bucket anwenden möchten.

    Wir empfehlen, dass Sie alle Einstellungen aktiviert lassen. Weitere Informationen zum Sperren des öffentlichen Zugriffs finden Sie unter Blockieren des öffentlichen Zugriffs auf Ihren Amazon S3 S3-Speicher im Amazon Simple Storage Service-Benutzerhandbuch.

  6. Wählen Sie Create Bucket (Bucket erstellen) aus.

  7. Laden Sie die Trainingsdatendatei in Ihren Amazon S3 S3-Bucket hoch. Notieren Sie sich den Amazon S3 S3-Speicherpfad für Ihre Trainingsdatei (z. B. s3://bucketname/object.csv).

Batch-Import von Ereignisdaten in die Amazon Fraud Detector Detector-Konsole

Sie können ganz einfach eine große Anzahl Ihrer Ereignisdatensätze in die Amazon Fraud Detector Detector-Konsole importieren, indem Sie die CreateBatchImportJob API oder das AWS SDK verwenden. Bevor Sie fortfahren, stellen Sie sicher, dass Sie die Anweisungen zur Vorbereitung Ihres Datensatzes als CSV-Datei befolgt haben. Stellen Sie sicher, dass Sie die CSV-Datei auch in einen Amazon S3 S3-Bucket hochgeladen haben.

Verwenden der Amazon Fraud Detector Detector-Konsole

Um Ereignisdaten stapelweise in die Konsole zu importieren
  1. Öffnen Sie die AWS-Konsole, melden Sie sich bei Ihrem Konto an und navigieren Sie zu Amazon Fraud Detector.

  2. Wählen Sie im linken Navigationsbereich Ereignisse aus.

  3. Wählen Sie Ihren Ereignistyp.

  4. Wählen Sie den Tab Gespeicherte Ereignisse aus.

  5. Vergewissern Sie sich, dass im Detailbereich für gespeicherte Ereignisse die Option Ereigniserfassung aktiviert ist.

  6. Wählen Sie im Bereich Ereignisdaten importieren die Option Neuer Import aus.

  7. Geben Sie auf der Importseite für neue Ereignisse die folgenden Informationen ein:

    • [Empfohlen] Lassen Sie die Einstellung Smart Data Validation für diesen Datensatz aktivieren — neu auf die Standardeinstellung eingestellt.

    • Wählen Sie unter IAM-Rolle für Daten die IAM-Rolle aus, die Sie für den Amazon S3 S3-Bucket erstellt haben, der die CSV-Datei enthält, die Sie importieren möchten.

    • Geben Sie unter Speicherort der Eingabedaten den S3-Speicherort ein, an dem sich Ihre CSV-Datei befindet.

    • Wenn Sie einen separaten Speicherort für Ihre Importergebnisse angeben möchten, klicken Sie auf Separate Datenposition für Eingaben und Ergebnisse und geben Sie einen gültigen Amazon S3 S3-Bucket-Speicherort an.

    Wichtig

    Stellen Sie sicher, dass die von Ihnen ausgewählte IAM-Rolle über Leseberechtigungen für Ihren Amazon S3 S3-Eingabe-Bucket und Schreibberechtigungen für Ihren Amazon S3 S3-Ausgabe-Bucket verfügt.

  8. Wählen Sie Starten.

  9. In der Spalte Status im Bereich Ereignisdaten importieren wird der Status Ihres Validierungs- und Importauftrags angezeigt. Das Banner oben bietet eine allgemeine Beschreibung des Status, während Ihr Datensatz zuerst die Validierung und dann den Import durchläuft.

  10. Folgen Sie den Anweisungen unterÜberwachen Sie den Fortschritt der Datensatzvalidierung und des Importvorgangs.

Überwachen Sie den Fortschritt der Datensatzvalidierung und des Importvorgangs

Wenn Sie die Amazon Fraud Detector-Konsole verwenden, um einen Batch-Importjob auszuführen, validiert Amazon Fraud Detector standardmäßig Ihren Datensatz vor dem Import. Sie können den Fortschritt und den Status von Validierungs- und Importaufträgen auf der Importseite Neue Ereignisse der Amazon Fraud Detector Detector-Konsole überwachen. Ein Banner oben auf der Seite bietet eine kurze Beschreibung der Validierungsergebnisse und des Status des Importauftrags. Abhängig von den Validierungsergebnissen und dem Status Ihres Importauftrags müssen Sie möglicherweise Maßnahmen ergreifen, um eine erfolgreiche Validierung und einen erfolgreichen Import Ihres Datensatzes sicherzustellen.

Die folgende Tabelle enthält Einzelheiten zu den Maßnahmen, die Sie je nach Ergebnis der Überprüfungs- und Importvorgänge ergreifen müssen.

Banner-Nachricht Status Bedeutung Was sollte ich tun
Die Datenvalidierung hat begonnen Die Validierung ist im Gange SDV hat mit der Validierung Ihres Datensatzes begonnen Warten Sie, bis sich der Status ändert
Die Datenvalidierung kann aufgrund von Fehlern in Ihrem Datensatz nicht fortgesetzt werden. Korrigieren Sie Fehler in Ihrer Datendatei und starten Sie einen neuen Importjob. Weitere Informationen finden Sie im Validierungsbericht Die Überprüfung ist fehlgeschlagen SDV hat Probleme in Ihrer Datendatei festgestellt. Diese Probleme müssen für einen erfolgreichen Import Ihres Datensatzes behoben werden. Wählen Sie im Bereich Ereignisdaten importieren die Job-ID aus und sehen Sie sich den Validierungsbericht an. Folgen Sie den Empfehlungen im Bericht, um alle aufgelisteten Fehler zu beheben. Weitere Informationen finden Sie unter Verwenden Sie den Validierungsbericht.
Der Datenimport wurde gestartet. Die Validierung wurde erfolgreich abgeschlossen Import läuft Ihr Datensatz hat die Validierung bestanden. AFD hat mit dem Import Ihres Datensatzes begonnen Warten Sie, bis sich der Status ändert
Die Validierung wurde mit Warnungen abgeschlossen. Der Datenimport wurde gestartet Import läuft Bei einigen Daten in Ihrem Datensatz ist die Überprüfung fehlgeschlagen. Die Daten, die die Validierung bestanden haben, erfüllen jedoch die Mindestanforderungen an die Datengröße für den Import. Überwachen Sie die Nachricht im Banner und warten Sie, bis sich der Status ändert
Ihre Daten wurden teilweise importiert. Einige Daten haben die Überprüfung nicht bestanden und wurden nicht importiert. Weitere Informationen finden Sie im Validierungsbericht. Importiert. Der Status zeigt ein Warnsymbol. Einige der Daten in Ihrer Datendatei, deren Überprüfung fehlgeschlagen ist, wurden nicht importiert. Die restlichen Daten, die die Validierung bestanden haben, wurden importiert. Wählen Sie im Bereich Ereignisdaten importieren die Job-ID aus und sehen Sie sich den Validierungsbericht an. Folgen Sie den Empfehlungen in der Tabelle mit den Warnungen auf Datenebene, um die aufgelisteten Warnungen zu beheben. Sie müssen nicht auf alle Warnungen eingehen. Stellen Sie jedoch sicher, dass Ihr Datensatz mehr als 50% der Daten enthält, die die Validierung für einen erfolgreichen Import bestehen. Nachdem Sie die Warnungen behoben haben, starten Sie einen neuen Importjob. Weitere Informationen finden Sie unter Verwenden Sie den Validierungsbericht.
Der Datenimport ist aufgrund eines Verarbeitungsfehlers fehlgeschlagen. Starten Sie einen neuen Datenimportauftrag Import ist fehlgeschlagen Der Import ist aufgrund eines vorübergehenden Laufzeitfehlers fehlgeschlagen Starten Sie einen neuen Importauftrag
Die Daten wurden erfolgreich importiert Importiert Sowohl die Validierung als auch der Import wurden erfolgreich abgeschlossen Wählen Sie die Job-ID Ihres Importauftrags aus, um Details anzuzeigen, und fahren Sie dann mit dem Modelltraining fort
Anmerkung

Wir empfehlen, 10 Minuten zu warten, nachdem der Datensatz erfolgreich in Amazon Fraud Detector importiert wurde, um sicherzustellen, dass sie vollständig vom System aufgenommen wurden.

Bericht zur intelligenten Datenvalidierung

Der Smart Data Validation erstellt nach Abschluss der Validierung einen Validierungsbericht. Der Validierungsbericht enthält Einzelheiten zu allen Problemen, die der SDV in Ihrem Datensatz identifiziert hat, sowie Vorschläge für Maßnahmen zur Behebung der schwerwiegendsten Probleme. Anhand des Validierungsberichts können Sie feststellen, um welche Probleme es sich handelt, wo sich die Probleme im Datensatz befinden, wie schwerwiegend die Probleme sind und wie sie behoben werden können. Der Validierungsbericht wird auch dann erstellt, wenn die Validierung erfolgreich abgeschlossen wurde. In diesem Fall können Sie den Bericht einsehen, um zu sehen, ob Probleme aufgeführt sind, und falls ja, entscheiden, ob Sie eines dieser Probleme beheben möchten.

Anmerkung

Die aktuelle Version von SDV scannt Ihren Datensatz auf Probleme, die dazu führen könnten, dass der Batch-Import fehlschlägt. Wenn die Validierung und der Batch-Import erfolgreich sind, kann Ihr Datensatz immer noch Probleme aufweisen, die dazu führen können, dass das Modelltraining fehlschlägt. Wir empfehlen Ihnen, Ihren Validierungsbericht auch dann einzusehen, wenn Validierung und Import erfolgreich waren, und alle im Bericht für ein erfolgreiches Modelltraining aufgelisteten Probleme zu beheben. Nachdem Sie die Probleme behoben haben, erstellen Sie einen neuen Batch-Importauftrag.

Zugriff auf den Validierungsbericht

Sie können nach Abschluss der Validierung jederzeit auf den Validierungsbericht zugreifen, indem Sie eine der folgenden Optionen verwenden:

  1. Wählen Sie nach Abschluss der Validierung und während der Importaufgabe im oberen Banner die Option Validierungsbericht anzeigen aus.

  2. Wählen Sie nach Abschluss des Importauftrags im Bereich Daten für Ereignisse importieren die Job-ID des gerade abgeschlossenen Importauftrags aus.

Verwenden Sie den Validierungsbericht

Auf der Seite mit dem Validierungsbericht Ihres Importjobs finden Sie die Details zu diesem Importjob, eine Liste kritischer Fehler, falls solche gefunden wurden, eine Liste mit Warnungen zu bestimmten Ereignissen (Zeilen) in Ihrem Datensatz, sofern sie gefunden wurden, und eine kurze Zusammenfassung Ihres Datensatzes, die Informationen wie ungültige Werte und fehlende Werte für jede Variable enthält.

  • Jobdetails importieren

    Stellt Einzelheiten zum Importauftrag bereit. Wenn Ihr Importauftrag fehlgeschlagen ist oder Ihr Datensatz teilweise importiert wurde, wählen Sie Gehe zur Ergebnisdatei, um die Fehlerprotokolle der Ereignisse anzuzeigen, die nicht importiert werden konnten.

  • Kritische Fehler

    Enthält Einzelheiten zu den wichtigsten Problemen in Ihrem Datensatz, die von SDV identifiziert wurden. Alle in diesem Bereich aufgeführten Probleme sind kritisch und müssen behoben werden, bevor Sie mit dem Import fortfahren. Wenn Sie versuchen, Ihren Datensatz zu importieren, ohne die kritischen Probleme zu beheben, schlägt Ihr Importauftrag möglicherweise fehl.

    Um die kritischen Probleme zu beheben, befolgen Sie die Empfehlungen für jede Warnung. Nachdem Sie alle im Bereich Kritische Fehler aufgelisteten Probleme behoben haben, erstellen Sie einen neuen Batch-Importauftrag.

  • Warnungen auf Datenebene

    Bietet eine Zusammenfassung der Warnungen für bestimmte Ereignisse (Zeilen) in Ihrem Datensatz. Wenn der Bereich mit den Warnungen auf Datenebene gefüllt ist, ist die Überprüfung einiger Ereignisse in Ihrem Datensatz fehlgeschlagen und sie wurden nicht importiert.

    Für jede Warnung wird in der Spalte Beschreibung die Anzahl der Ereignisse angezeigt, bei denen das Problem aufgetreten ist. Und das Beispielereignis IDs enthält eine unvollständige Liste von Beispielereignissen, die IDs Sie als Ausgangspunkt verwenden können, um die restlichen Ereignisse zu finden, bei denen das Problem auftritt. Verwenden Sie die in der Warnung enthaltene Empfehlung, um das Problem zu beheben. Verwenden Sie auch die Fehlerprotokolle aus Ihrer Ausgabedatei, um weitere Informationen zu dem Problem zu erhalten. Die Fehlerprotokolle werden für alle Ereignisse generiert, bei denen der Batch-Import fehlgeschlagen ist. Um auf Fehlerprotokolle zuzugreifen, wählen Sie im Bereich „Auftragsdetails importieren“ die Option Gehe zur Ergebnisdatei aus.

    Anmerkung

    Wenn bei mehr als 50% der Ereignisse (Zeilen) in Ihrem Datensatz die Überprüfung fehlgeschlagen ist, schlägt auch der Importauftrag fehl. In diesem Fall müssen Sie die Daten korrigieren, bevor Sie einen neuen Importauftrag starten.

  • Zusammenfassung der Datensätze

    Bietet eine Zusammenfassung des Validierungsberichts Ihres Datensatzes. Wenn in der Spalte Anzahl der Warnungen mehr als 0 Warnungen angezeigt werden, entscheiden Sie, ob Sie diese Warnung korrigieren müssen. Wenn in der Spalte Anzahl der Warnungen 0 s angezeigt werden, fahren Sie mit dem Training Ihres Modells fort.

Batch-Import von Ereignisdaten mit dem AWS-SDK SDK for Python (Boto3)

Das folgende Beispiel zeigt eine Beispielanforderung für CreateBatchImportJobeine API. Ein Batch-Importauftrag muss eine JobID, einen InputPath, einen OutputPath und enthalten. eventTypeNameiamRoleArn Die JobID darf nicht dieselbe ID eines früheren Jobs enthalten, es sei denn, der Job ist im Status CREATE_FAILED vorhanden. InputPath und OutputPath müssen gültige S3-Pfade sein. Sie können die Angabe des Dateinamens im OutputPath deaktivieren, müssen jedoch trotzdem einen gültigen S3-Bucket-Speicherort angeben. Das eventTypeName und iamRoleArn muss existieren. Die IAM-Rolle muss Leseberechtigungen für die Eingabe des Amazon S3 S3-Buckets und Schreibberechtigungen für die Ausgabe des Amazon S3 S3-Buckets gewähren.

import boto3 fraudDetector = boto3.client('frauddetector') fraudDetector.create_batch_import_job ( jobId = 'sample_batch_import', inputPath = 's3://bucket_name/input_file_name.csv', outputPath = 's3://bucket_name/', eventTypeName = 'sample_registration', iamRoleArn: 'arn:aws:iam::************:role/service-role/AmazonFraudDetector-DataAccessRole-*************' )

Batch-Importauftrag abbrechen

Sie können einen laufenden Batch-Importauftrag jederzeit in der Amazon Fraud Detector Detector-Konsole mit der CancelBatchImportJob API oder dem AWS-SDK stornieren.

Um einen Batch-Importauftrag in der Konsole abzubrechen,
  1. Öffnen Sie die AWS-Konsole, melden Sie sich bei Ihrem Konto an und navigieren Sie zu Amazon Fraud Detector.

  2. Wählen Sie im linken Navigationsbereich Ereignisse aus.

  3. Wählen Sie Ihren Ereignistyp.

  4. Wählen Sie den Tab Gespeicherte Ereignisse aus.

  5. Wählen Sie im Bereich Daten zu Ereignissen importieren die Job-ID eines laufenden Importauftrags aus, den Sie abbrechen möchten.

  6. Klicken Sie auf der Seite mit dem Event-Job auf Aktionen und wählen Sie Import von Ereignissen abbrechen aus.

  7. Wählen Sie Ereignisimport beenden, um den Batch-Importauftrag abzubrechen.

Abbrechen eines Batch-Importauftrags mit dem AWS-SDK SDK for Python (Boto3)

Das folgende Beispiel zeigt eine Beispielanforderung für die API. CancelBatchImportJob Der Importauftrag zum Abbrechen muss die Auftrags-ID eines laufenden Batch-Importauftrags enthalten.

import boto3 fraudDetector = boto3.client('frauddetector') fraudDetector.cancel_batch_import_job ( jobId = 'sample_batch' )