

Amazon Fraud Detector non è più aperto a nuovi clienti a partire dal 7 novembre 2025. Per funzionalità simili a Amazon Fraud Detector, esplora Amazon SageMaker AutoGluon, e. AWS WAF

Le traduzioni sono generate tramite traduzione automatica. In caso di conflitto tra il contenuto di una traduzione e la versione originale in Inglese, quest'ultima prevarrà.

# Archivia i dati degli eventi internamente con Amazon Fraud Detector
<a name="storing-event-data-afd"></a>

Puoi scegliere di archiviare i dati degli eventi in Amazon Fraud Detector e utilizzarli in un secondo momento per addestrare i tuoi modelli. Archiviando i dati degli eventi in Amazon Fraud Detector, puoi addestrare modelli che utilizzano variabili calcolate automaticamente per migliorare le prestazioni, semplificare la riqualificazione dei modelli e aggiornare le etichette antifrode per chiudere il ciclo di feedback sull'apprendimento automatico. Gli eventi vengono archiviati a livello di risorsa Event Type, quindi tutti gli eventi dello stesso tipo di evento vengono archiviati insieme in un unico set di dati di tipi di evento. Come parte della definizione di un tipo di evento, puoi facoltativamente specificare se archiviare gli eventi per quel tipo di evento attivando l'*impostazione Event Ingestion nella console* Amazon Fraud Detector. 

Puoi archiviare singoli eventi o importare un gran numero di set di dati di eventi in Amazon Fraud Detector. I singoli eventi possono essere trasmessi in streaming utilizzando l'[GetEventPrediction](https://docs.aws.amazon.com//frauddetector/latest/api/API_GetEventPrediction.html)API o l'API. [SendEvent](https://docs.aws.amazon.com//frauddetector/latest/api/API_SendEvent.html) I set di dati di grandi dimensioni possono essere importati rapidamente e facilmente in Amazon Fraud Detector utilizzando la funzionalità di importazione in batch nella console Amazon Fraud Detector o utilizzando l'API. [CreateBatchImportJob](https://docs.aws.amazon.com//frauddetector/latest/api/API_CreateBatchImportJob.html)

Puoi utilizzare la console Amazon Fraud Detector in qualsiasi momento per verificare il numero di eventi già archiviati per ogni tipo di evento.

# Prepara i dati degli eventi per l'archiviazione
<a name="prepare-storage-event-data"></a>

I dati sugli eventi archiviati internamente con Amazon Fraud Detector vengono archiviati a livello `Event Type` di risorsa. Pertanto, tutti i dati relativi allo stesso evento vengono archiviati in un unico evento. `Event Type` Gli eventi memorizzati possono essere successivamente utilizzati per addestrare un nuovo modello o riaddestrare un modello esistente. Quando si addestra un modello utilizzando i dati degli eventi memorizzati, è possibile specificare facoltativamente un intervallo temporale di eventi per limitare la dimensione del set di dati di allenamento. 

Ogni volta che memorizzi i tuoi dati in Amazon Fraud Detector, utilizzando la console Amazon Fraud Detector, l'API o `SendEvent` `CreateBatchImportJob` l'API, Amazon Fraud Detector convalida i dati prima di archiviarli. Se i dati non vengono convalidati, i dati dell'evento non vengono archiviati.

**Prerequisiti per l'archiviazione interna dei dati con Amazon Fraud Detector**
+ Per garantire che i dati del tuo evento superino la convalida e che il set di dati venga archiviato correttamente, assicurati di aver utilizzato le informazioni fornite da [Data models explorer per preparare il set di dati](https://docs.aws.amazon.com/frauddetector/latest/ug/create-event-dataset.html#prepare-event-dataset). 
+ Hai creato un tipo di evento per i dati degli eventi che desideri archiviare con Amazon Fraud Detector. In caso contrario, segui le istruzioni per [creare un tipo di evento](https://docs.aws.amazon.com//frauddetector/latest/ug/create-event-type.html).

## Validazione intelligente dei dati
<a name="smart-data-validation"></a>

Quando carichi il set di dati nella console Amazon Fraud Detector per l'importazione in batch, Amazon Fraud Detector utilizza Smart Data Validation (SDV) per convalidare il set di dati prima di importare i dati. SDV esegue la scansione del file di dati caricato e identifica problemi come dati mancanti e formati o tipi di dati errati. Oltre a convalidare il set di dati, SDV fornisce anche un rapporto di convalida che elenca tutti i problemi identificati e suggerisce le azioni per risolvere i problemi di maggiore impatto. Alcuni dei problemi identificati da SDV potrebbero essere critici e devono essere risolti prima che Amazon Fraud Detector possa importare correttamente il tuo set di dati. Per ulteriori informazioni, consulta [Rapporto di convalida dei dati intelligenti](storing-events-batch-import.md#sdv-validation-report). 

L'SDV convalida il set di dati a livello di file e a livello di dati (riga). A livello di file, SDV esegue la scansione del file di dati e identifica problemi quali autorizzazioni di accesso inadeguate, dimensioni, formato del file e intestazioni (metadati degli eventi e variabili di evento) errati. A livello di dati, SDV analizza i dati di ogni evento (riga) e identifica problemi quali formato dei dati, lunghezza dei dati, formato del timestamp e valori nulli errati. 

Smart Data Validation è attualmente disponibile solo nella console Amazon Fraud Detector e la convalida è attivata per impostazione predefinita. Se non desideri che Amazon Fraud Detector utilizzi Smart Data Validation prima di importare il set di dati, disattiva la convalida nella console Amazon Fraud Detector durante il caricamento del set di dati. 

## Convalida dei dati archiviati durante l'utilizzo del nostro SDK APIs AWS
<a name="validating-stored-data-api"></a>

Durante il caricamento di eventi tramite l'operazione`SendEvent`, o `CreateBatchImportJob ` API`GetEventPrediction`, Amazon Fraud Detector convalida quanto segue:
+ L' EventIngestion impostazione per quel tipo di evento è ABILITATA.
+ I timestamp degli eventi non possono essere aggiornati. Un evento con un ID evento ripetuto e EVENT\$1TIMESTAMP diverso verrà considerato un errore.
+ I nomi e i valori delle variabili corrispondono al formato previsto. Per ulteriori informazioni, consulta [Crea una variabile](create-a-variable.md)
+ Le variabili obbligatorie vengono compilate con un valore.
+ Tutti i timestamp degli eventi non risalgono a più di 18 mesi e non sono futuri.

# Memorizza i dati degli eventi utilizzando l'importazione in batch
<a name="storing-events-batch-import"></a>

Con la funzione di importazione in batch, puoi caricare in modo rapido e semplice set di dati di eventi storici di grandi dimensioni in Amazon Fraud Detector utilizzando la console, l'API o l'SDK AWS. *Per utilizzare l'importazione in batch, crea un file di input in formato CSV che contenga tutti i dati degli eventi, carica il file CSV nel bucket Amazon S3 e avvia un processo di importazione.* Amazon Fraud Detector prima convalida i dati in base al tipo di evento, quindi importa automaticamente l'intero set di dati. Dopo l'importazione, i dati sono pronti per essere utilizzati per addestrare nuovi modelli o per riaddestrare modelli esistenti.

## File di input e output
<a name="input-output-batch"></a>

Il file CSV di input deve contenere intestazioni che corrispondono alle variabili definite nel tipo di evento associato più quattro variabili obbligatorie. Per ulteriori informazioni, consulta [Prepara i dati degli eventi per l'archiviazione](prepare-storage-event-data.md). La dimensione massima del file di dati di input è di 20 Gigabyte (GB) o circa 50 milioni di eventi. Il numero di eventi varierà in base alle dimensioni dell'evento. Se il processo di importazione ha avuto esito positivo, il file di output è vuoto. Se l'importazione non è riuscita, il file di output contiene i log degli errori. 

## Crea un file CSV
<a name="create-csv-stored-data"></a>

Amazon Fraud Detector importa i dati solo da file in formato CSV (valori separati da virgole). La prima riga del file CSV deve contenere intestazioni di colonna che corrispondono esattamente alle variabili definite nel tipo di evento associato più quattro variabili obbligatorie: EVENT\$1ID, EVENT\$1TIMESTAMP, ENTITY\$1ID e ENTITY\$1TYPE. Puoi anche includere facoltativamente EVENT\$1LABEL e LABEL\$1TIMESTAMP (LABEL\$1TIMESTAMP è obbligatorio se EVENT\$1LABEL è incluso). 

**Definire le variabili obbligatorie**

Le variabili obbligatorie sono considerate metadati di eventi e devono essere specificate in lettere maiuscole. I metadati degli eventi vengono inclusi automaticamente per l'addestramento dei modelli. La tabella seguente elenca le variabili obbligatorie, la descrizione di ciascuna variabile e il formato richiesto per la variabile.


| Nome | Description | Requisiti | 
| --- | --- | --- | 
|  EVENT\$1ID  |  Un identificatore per l'evento. Ad esempio, se l'evento è una transazione online, EVENT\$1ID potrebbe essere il numero di riferimento della transazione fornito al cliente.  |  [\[See the AWS documentation website for more details\]](http://docs.aws.amazon.com/it_it/frauddetector/latest/ug/storing-events-batch-import.html)  | 
|  EVENT\$1TIMESTAMP  |  Il timestamp di quando si è verificato l'evento. Il timestamp deve essere conforme allo standard ISO 8601 in UTC.  |  [\[See the AWS documentation website for more details\]](http://docs.aws.amazon.com/it_it/frauddetector/latest/ug/storing-events-batch-import.html)  | 
|  ENTITY\$1ID  |  Un identificatore per l'entità che esegue l'evento.  |  [\[See the AWS documentation website for more details\]](http://docs.aws.amazon.com/it_it/frauddetector/latest/ug/storing-events-batch-import.html)  | 
|  TIPO\$1ENTITÀ  |  L'entità che esegue l'evento, ad esempio un commerciante o un cliente  |  ENTITY\$1TYPE è obbligatorio per i lavori di importazione in batch  | 
|  EVENT\$1LABEL  |  Classifica l'evento come o `fraudulent` `legitimate`  |  EVENT\$1LABEL è obbligatorio se LABEL\$1TIMESTAMP è incluso  | 
|  LABEL\$1TIMESTAMP  |  Il timestamp in cui l'etichetta dell'evento è stata compilata o aggiornata l'ultima volta  |  [\[See the AWS documentation website for more details\]](http://docs.aws.amazon.com/it_it/frauddetector/latest/ug/storing-events-batch-import.html)  | 

## Carica il file CSV su Amazon S3 per l'importazione in batch
<a name="upload-csv-S3-for-batch-import"></a>

Dopo aver creato un file CSV con i tuoi dati, carica il file nel tuo bucket Amazon Simple Storage Service (Amazon S3).

**Per caricare i dati degli eventi in un bucket Amazon S3**

1. Accedi a Console di gestione AWS e apri la console Amazon S3 all'indirizzo. [https://console.aws.amazon.com/s3/](https://console.aws.amazon.com/s3/)

1. Scegliere **Create bucket (Crea bucket)**.

   Si apre la procedura guidata **Create bucket (Crea bucket)**.

1. In **Bucket name (Nome bucket)**, immettere un nome conforme a DNS per il bucket.

   Il nome del bucket deve:
   + Essere univoco in tutto Amazon S3.
   + Deve contenere da 3 a 63 caratteri
   + Non contiene caratteri maiuscoli.
   + Iniziare con una lettera minuscola o un numero.

   Una volta creato il bucket, non è possibile modificarne il nome. Per informazioni sulla denominazione dei bucket, consulta le regole di [denominazione dei bucket nella](https://docs.aws.amazon.com/AmazonS3/latest/userguide/BucketRestrictions.html#bucketnamingrules) *Amazon Simple Storage* Service User Guide.
**Importante**  
Evitare di includere informazioni riservate, ad esempio numeri di account, nel nome del bucket. Il nome del bucket è visibile in URLs quel punto agli oggetti nel bucket.

1. In **Regione**, scegli la AWS regione in cui desideri che risieda il bucket. Devi selezionare la stessa regione in cui utilizzi Amazon Fraud Detector, ovvero Stati Uniti orientali (Virginia settentrionale), Stati Uniti orientali (Ohio), Stati Uniti occidentali (Oregon), Europa (Irlanda), Asia Pacifico (Singapore) o Asia Pacifico (Sydney). 

1. In **Bucket settings for Block Public Access (Impostazioni bucket per blocco dell'accesso pubblico)**, scegliere le impostazioni del blocco dell'accesso pubblico che si desidera applicare al bucket. 

   Ti consigliamo di lasciare tutte le impostazioni abilitate. Per ulteriori informazioni sul blocco dell'accesso pubblico, consulta [Bloccare l'accesso pubblico allo storage Amazon S3](https://docs.aws.amazon.com/AmazonS3/latest/dev/access-control-block-public-access.html) nella Guida per l'*utente di Amazon Simple Storage Service*.

1. Seleziona **Crea bucket**.

1. Carica il file dei dati di allenamento nel tuo bucket Amazon S3. Prendi nota del percorso di localizzazione di Amazon S3 per il tuo file di formazione (ad esempio, s3://bucketname/object.csv).

## Importazione in batch dei dati degli eventi nella console Amazon Fraud Detector
<a name="batch-import-event-data"></a>

Puoi importare facilmente un gran numero di set di dati degli eventi nella console Amazon Fraud Detector, utilizzando `CreateBatchImportJob` l'API o l'SDK AWS. Prima di procedere, assicurati di aver seguito le istruzioni per preparare il set di dati come file CSV. Assicurati di aver caricato anche il file CSV in un bucket Amazon S3.

**Utilizzo della console Amazon Fraud Detector**

**Per importare in batch i dati degli eventi nella console**

1. Apri la console AWS e accedi al tuo account, quindi accedi ad Amazon Fraud Detector.

1. Nel riquadro di navigazione a sinistra, scegli **Eventi**.

1. Scegli il tipo di evento.

1. Seleziona la scheda **Eventi memorizzati**.

1. **Nel riquadro dei **dettagli degli eventi archiviati**, assicurati che l'**inserimento degli eventi sia ATTIVATO**.**

1. Nel riquadro **dati Importa eventi**, scegli **Nuova** importazione.

1. Nella pagina di **importazione di nuovi eventi**, fornisci le seguenti informazioni:
   + [Consigliato] Lascia **abilita la convalida Smart Data per questo set di dati, impostata come nuova** impostazione predefinita.
   + Per il **ruolo IAM per i dati**, seleziona il ruolo IAM che hai creato per il bucket Amazon S3 che contiene il file CSV che intendi importare.
   + Per la **posizione dei dati di input**, inserisci la posizione S3 in cui hai il file CSV. 
   + Se desideri specificare una posizione separata in cui archiviare i risultati dell'importazione, fai clic sul pulsante **Posizione dati separata per input e risultati e** fornisci una posizione valida per il bucket Amazon S3.
**Importante**  
Assicurati che il ruolo IAM selezionato disponga delle autorizzazioni di lettura per il bucket Amazon S3 di input e delle autorizzazioni di scrittura per il bucket Amazon S3 di output.

1. Scegli **Avvia**.

1. La colonna **Status** nel riquadro **dati degli eventi di importazione** mostra lo stato del processo di convalida e importazione. Il banner in alto fornisce una descrizione di alto livello dello stato in quanto il set di dati viene prima sottoposto alla convalida e poi all'importazione.

1. Segui le indicazioni fornite a. [Monitora lo stato di avanzamento della convalida del set di dati e del processo di importazione](#monitor-progress-sdv)

### Monitora lo stato di avanzamento della convalida del set di dati e del processo di importazione
<a name="monitor-progress-sdv"></a>

Se utilizzi la console Amazon Fraud Detector per eseguire un processo di importazione in batch, per impostazione predefinita, Amazon Fraud Detector convalida il set di dati prima dell'importazione. Puoi monitorare l'avanzamento e lo stato dei lavori di convalida e importazione nella pagina di **importazione di nuovi eventi** della console Amazon Fraud Detector. Un banner nella parte superiore della pagina fornisce una breve descrizione dei risultati della convalida e dello stato del processo di importazione. A seconda dei risultati della convalida e dello stato del processo di importazione, potrebbe essere necessario intraprendere azioni per garantire la corretta convalida e l'importazione del set di dati.

La tabella seguente fornisce i dettagli delle azioni da intraprendere in base all'esito delle operazioni di convalida e importazione.


| Messaggio banner | Status | Significato | Cosa devo fare | 
| --- | --- | --- | --- | 
| La convalida dei dati è iniziata | Convalida in corso | SDV ha iniziato a convalidare il set di dati | Attendi che lo stato cambi | 
| La convalida dei dati non può procedere a causa di errori nel set di dati. Correggi gli errori nel file di dati e avvia un nuovo processo di importazione. Per ulteriori informazioni, consulta il rapporto di convalida | Convalida non riuscita | SDV ha identificato problemi nel file di dati. Questi problemi devono essere risolti per importare correttamente il set di dati. | Nel riquadro dati Importa eventi, seleziona Job Id e visualizza il report di convalida. Segui i consigli contenuti nel rapporto per correggere tutti gli errori elencati. Per ulteriori informazioni, consulta [Utilizzo del rapporto di convalida](#using-sdv-validation-report). | 
| L'importazione dei dati è iniziata. Convalida completata con successo | Importazione in corso | Il set di dati ha superato la convalida. AFD ha iniziato a importare il tuo set di dati | Attendi che lo stato cambi | 
| Convalida completata con avvisi. L'importazione dei dati è iniziata | Importazione in corso | La convalida di alcuni dati del set di dati non è riuscita. Tuttavia, i dati che hanno superato la convalida soddisfano i requisiti minimi di dimensione dei dati per l'importazione. | Monitora il messaggio nel banner e attendi che lo stato cambi | 
| I tuoi dati sono stati parzialmente importati. Alcuni dati non sono stati convalidati e non sono stati importati. Per ulteriori informazioni, consulta il rapporto di convalida. | Importato. Lo stato mostra un'icona di avviso. | Alcuni dati del file di dati che non sono stati convalidati non sono stati importati. Il resto dei dati che hanno superato la convalida sono stati importati. | Nel riquadro dati Importa eventi, seleziona Job Id e visualizza il report di convalida. Segui i consigli nella tabella degli avvisi a livello di dati per risolvere gli avvisi elencati. Non è necessario rispondere a tutti gli avvisi. Tuttavia, assicurati che il tuo set di dati contenga più del 50% di dati che superino la convalida per un'importazione corretta. Dopo aver risolto gli avvisi, avvia un nuovo processo di importazione. Per ulteriori informazioni, consulta [Utilizzo del rapporto di convalida](#using-sdv-validation-report). | 
| L'importazione dei dati non è riuscita a causa di un errore di elaborazione. Avvia un nuovo processo di importazione dei dati | Importazione non riuscita | L'importazione non è riuscita a causa di un errore transitorio in fase di esecuzione | Avvia un nuovo processo di importazione | 
| I dati sono stati importati con successo | Importato | Sia la convalida che l'importazione sono state completate correttamente | Seleziona il Job Id del lavoro di importazione per visualizzare i dettagli, quindi procedi con la formazione del modello | 

**Nota**  
Ti consigliamo di attendere 10 minuti dopo che il set di dati è stato importato correttamente in Amazon Fraud Detector per garantire che vengano completamente assorbiti dal sistema.

### Rapporto di convalida dei dati intelligenti
<a name="sdv-validation-report"></a>

Lo Smart Data Validation crea un rapporto di convalida una volta completata la convalida. Il rapporto di convalida fornisce dettagli su tutti i problemi identificati da SDV nel set di dati, con azioni suggerite per risolvere i problemi più importanti. È possibile utilizzare il rapporto di convalida per determinare quali sono i problemi, dove si trovano i problemi nel set di dati, la gravità dei problemi e come risolverli. Il rapporto di convalida viene creato anche quando la convalida viene completata correttamente. In questo caso, puoi visualizzare il rapporto per vedere se ci sono problemi elencati e, in caso affermativo, decidere se desideri risolverli.

**Nota**  
La versione corrente di SDV analizza il set di dati alla ricerca di problemi che potrebbero causare il fallimento dell'importazione in batch. Se la convalida e l'importazione in batch hanno esito positivo, il set di dati può ancora presentare problemi che potrebbero causare il fallimento dell'addestramento del modello. Ti consigliamo di visualizzare il rapporto di convalida anche se la convalida e l'importazione hanno avuto esito positivo e di risolvere eventuali problemi elencati nel rapporto per una corretta formazione del modello. Dopo aver risolto i problemi, create un nuovo processo di importazione in batch. 

**Accesso al rapporto di convalida**

È possibile accedere al rapporto di convalida in qualsiasi momento dopo il completamento della convalida utilizzando una delle seguenti opzioni:

1. **Al termine della convalida e mentre il processo di importazione è in corso, nel banner superiore, scegli Visualizza rapporto di convalida.**

1. Al termine del processo di importazione, nel riquadro **dati Importa eventi**, scegli l'ID del lavoro di importazione appena completato. 

#### Utilizzo del rapporto di convalida
<a name="using-sdv-validation-report"></a>

La pagina del rapporto di convalida del processo di importazione fornisce i dettagli di questo processo di importazione, un elenco degli eventuali errori critici rilevati, un elenco di avvisi relativi a eventi (righe) specifici nel set di dati, se rilevati, e un breve riepilogo del set di dati che include informazioni quali valori non validi e valori mancanti per ogni variabile.
+ **Importa i dettagli del lavoro**

  Fornisce i dettagli del processo di importazione. Se il processo di importazione non è riuscito o il set di dati è stato importato parzialmente, scegli **Vai al file dei risultati** per visualizzare i log degli errori degli eventi che non sono stati importati. 
+ **Errori critici**

  Fornisce dettagli sui problemi più importanti del set di dati identificati da SDV. Tutti i problemi elencati in questo riquadro sono critici ed è necessario risolverli prima di procedere con l'importazione. Se si tenta di importare il set di dati senza risolvere i problemi critici, il processo di importazione potrebbe non riuscire.

  Per risolvere i problemi critici, segui i consigli forniti per ogni avviso. Dopo aver risolto tutti i problemi elencati nel riquadro Errori critici, create un nuovo processo di importazione in batch. 
+ **Avvisi a livello di dati**

  Fornisce un riepilogo degli avvisi per eventi specifici (righe) nel set di dati. Se il riquadro Avvisi a livello di dati è compilato, alcuni eventi nel set di dati non sono stati convalidati e non sono stati importati. 

  Per ogni avviso, la colonna **Descrizione** mostra il numero di eventi che presentano il problema. Inoltre, l'**evento Sample IDs** fornisce un elenco parziale di eventi di esempio che IDs puoi utilizzare come punto di partenza per individuare gli altri eventi che presentano il problema. Utilizza la **raccomandazione** fornita per l'avviso per risolvere il problema. Utilizzate anche i log degli errori del file di output per ulteriori informazioni sul problema. I log degli errori vengono generati per tutti gli eventi che non hanno avuto esito positivo nell'importazione in batch. Per accedere ai log degli errori, nel riquadro dei **dettagli del processo di importazione**, scegli **Vai al file dei risultati**. 
**Nota**  
Se la convalida non è riuscita per più del 50% degli eventi (righe) del set di dati, anche il processo di importazione ha esito negativo. In questo caso, è necessario correggere i dati prima di iniziare un nuovo processo di importazione. 
+ **Riepilogo del set di dati** 

   Fornisce un riepilogo del rapporto di convalida del set di dati. Se la colonna Numero di avvisi mostra più di 0 avvisi, decidi se è necessario correggere tali avvisi. Se la colonna **Numero di avvisi** mostra 0, continua ad addestrare il tuo modello. 

## Importazione in batch dei dati degli eventi utilizzando l'SDK AWS per Python (Boto3)
<a name="batch-import-data-sdk"></a>

L'esempio seguente mostra un esempio di richiesta di API. [CreateBatchImportJob](https://docs.aws.amazon.com//frauddetector/latest/api/API_CreateBatchImportJob.html) Un processo di importazione in batch deve includere **JobID**, **InputPath, **outputPath**** e. **eventTypeName**iamRoleArn**** Il JobID non può contenere lo stesso ID di un lavoro precedente, a meno che il lavoro non esista nello stato CREATE\$1FAILED. InputPath e OutputPath devono essere percorsi S3 validi. Puoi scegliere di non specificare il nome del file in OutputPath, tuttavia dovrai comunque fornire una posizione valida per il bucket S3. Il e deve esistere. eventTypeName iamRoleArn Il ruolo IAM deve concedere le autorizzazioni di lettura per l'input del bucket Amazon S3 e le autorizzazioni di scrittura per l'output del bucket Amazon S3. 

```
import boto3
fraudDetector = boto3.client('frauddetector')

fraudDetector.create_batch_import_job (
jobId = 'sample_batch_import',
inputPath = 's3://bucket_name/input_file_name.csv',
outputPath = 's3://bucket_name/',
eventTypeName = 'sample_registration',
iamRoleArn: 'arn:aws:iam::************:role/service-role/AmazonFraudDetector-DataAccessRole-*************'
)
```

## Annulla il processo di importazione in batch
<a name="cancel-batch-import"></a>

Puoi annullare un processo di importazione batch in corso in qualsiasi momento nella console Amazon Fraud Detector, utilizzando `CancelBatchImportJob` l'API o l'SDK AWS. 

**Per annullare un processo di importazione in batch nella console,**

1. Apri la console AWS e accedi al tuo account, quindi accedi ad Amazon Fraud Detector.

1. Nel riquadro di navigazione a sinistra, scegli **Eventi**.

1. Scegli il tipo di evento.

1. Seleziona la scheda **Eventi memorizzati**.

1. Nel riquadro **dati di importazione degli eventi**, scegli l'ID del lavoro di importazione in corso che desideri annullare.

1. Nella pagina del processo dell'evento, fai clic su **Azioni** e seleziona **Annulla l'importazione degli eventi**.

1. Scegli **Interrompi l'importazione degli eventi** per annullare il processo di importazione in batch.

### Annullamento del processo di importazione in batch utilizzando l'SDK AWS per Python (Boto3)
<a name="cancel-batch-import-sdk"></a>

L'esempio seguente mostra un esempio di richiesta per l'API. `CancelBatchImportJob` L'annullamento del processo di importazione deve includere l'ID del lavoro di un processo di importazione batch in corso. 

```
import boto3
fraudDetector = boto3.client('frauddetector')
fraudDetector.cancel_batch_import_job (
    jobId = 'sample_batch'
)
```

# Memorizza i dati degli eventi utilizzando l'operazione GetEventPredictions API
<a name="storing-events-geteventprediction-api"></a>

Per impostazione predefinita, tutti gli eventi inviati all'`GetEventPrediction`API per la valutazione vengono archiviati in Amazon Fraud Detector. Ciò significa che Amazon Fraud Detector memorizzerà automaticamente i dati sugli eventi quando generi una previsione e li utilizzerà per aggiornare le variabili calcolate quasi in tempo reale. Puoi disabilitare l'archiviazione dei dati accedendo al tipo di evento nella console Amazon Fraud Detector e **impostando Event** ingestion OFF o aggiornando EventIngestion il valore su DISABLED utilizzando l'operazione API. `PutEventType` Per ulteriori informazioni sul funzionamento dell'`GetEventPrediction`API, consulta. [Previsioni di frode](getting-fraud-predictions.md) 

**Importante**  
Una volta abilitata l'acquisizione di eventi per un tipo *di evento*, consigliamo vivamente di mantenerla abilitata. La disabilitazione dell'inserimento di eventi per lo stesso tipo di evento e la successiva generazione di previsioni potrebbero comportare un comportamento incoerente.

# Archivia i dati degli eventi utilizzando l'operazione API SendEvent
<a name="storing-events-sendevent-api"></a>

Puoi utilizzare l'operazione `SendEvent` API per archiviare eventi in Amazon Fraud Detector senza generare previsioni di frode per tali eventi. Ad esempio, puoi utilizzare l'`SendEvent`operazione per caricare un set di dati storici, che potrai utilizzare in seguito per addestrare un modello.

**Formati Event Timestamp per API SendEvent **

Quando memorizzi i dati degli eventi utilizzando l'`SendEvent`API, devi assicurarti che il timestamp dell'evento sia nel formato richiesto. Amazon Fraud Detector supporta i seguenti formati: date/timestamp 
+ %yyyy-%mm-%ddt%hH: %mm: %sSz (solo standard ISO 8601 in UTC senza millisecondi)

  Esempio: 2019-11-30T 13:01:01 Z 
+ %yyyy/%mm/%dd %hh: %mm: %ss (AM/PM)

  Esempi: 2019/11/30 13:01:01 PM o 2019/11/30 13:01:01 
+ %mm/%dd/%yyyy %hh: %mm: %ss

  Esempi: 30/11/2019 13:01:01 PM, 30/11/2019 13:01:01 
+ %mm/%dd/%yy %h: %mm: %ss

  Esempi: 30/11/19 1:01:01 PM, 30/11/19 13:01:01 

Amazon Fraud Detector fa i seguenti presupposti quando analizza i date/timestamp formati per i timestamp degli eventi:
+ Se utilizzi lo standard ISO 8601, deve corrispondere esattamente alla specifica precedente
+ Se si utilizza uno degli altri formati, è disponibile una flessibilità aggiuntiva:
  + Per mesi e giorni, puoi fornire cifre singole o doppie. Ad esempio, 1/12/2019 è una data valida.
  + Non è necessario includere hh:mm:ss se non li hai (ovvero, puoi semplicemente fornire una data). Puoi anche fornire un sottoinsieme di sole ore e minuti (ad esempio, hh:mm). La semplice indicazione dell'ora non è supportata. Inoltre, i millisecondi non sono supportati.
  + Se si forniscono AM/PM etichette, si presuppone un orologio a 12 ore. Se non ci sono AM/PM informazioni, si presume un orologio a 24 ore.
  + È possibile utilizzare «/» o «-» come delimitatori per gli elementi di data. Si presume «:» per gli elementi del timestamp.

Di seguito è riportato un esempio di chiamata API. `SendEvent` 

```
import boto3
fraudDetector = boto3.client('frauddetector')

fraudDetector.send_event(
            eventId        = '802454d3-f7d8-482d-97e8-c4b6db9a0428',
            eventTypeName  = 'sample_registration',
            eventTimestamp = '2020-07-13T23:18:21Z',
            eventVariables =  {
    			'email_address' : 'johndoe@exampledomain.com',
    			'ip_address' : '1.2.3.4'},
            assignedLabel  = ‘legit’,
            labelTimestamp = '2020-07-13T23:18:21Z',
            entities       = [{'entityType':'sample_customer', 'entityId':'12345'}],        
)
```

# Ottieni i dettagli dei dati di un evento memorizzati
<a name="get-stored-event-details"></a>

Dopo aver archiviato i dati degli eventi in Amazon Fraud Detector, puoi controllare i dati più recenti archiviati per un evento utilizzando l'[GetEvent](https://docs.aws.amazon.com//frauddetector/latest/api/API_GetEvent.html)API. Il codice di esempio seguente controlla i dati più recenti memorizzati per l'`sample_registration`evento.

```
import boto3
fraudDetector = boto3.client('frauddetector')

fraudDetector.get_event(
            eventId        = '802454d3-f7d8-482d-97e8-c4b6db9a0428',
            eventTypeName  = 'sample_registration'
)
```

# Visualizza le metriche del set di dati degli eventi archiviato
<a name="view-stored-event-metrics"></a>

Per ogni tipo di evento, puoi visualizzare metriche come il numero di eventi archiviati, la dimensione totale degli eventi archiviati e i timestamp dei primi e degli ultimi eventi memorizzati, nella console Amazon Fraud Detector. 

**Per visualizzare le metriche degli eventi archiviate di un tipo di evento,**

1. Apri la AWS console e accedi al tuo account. Accedi ad Amazon Fraud Detector.

1. Nel riquadro di navigazione a sinistra, scegli **Eventi**.

1. Scegli il tipo di evento.

1. Seleziona la scheda **Eventi memorizzati**.

1. Il riquadro dei **dettagli degli eventi archiviati** mostra le metriche. Queste metriche vengono aggiornate automaticamente una volta al giorno.

1. Facoltativamente, fai clic su **Aggiorna le metriche degli eventi per aggiornare manualmente le metriche**. 
**Nota**  
Se hai appena importato i dati, ti consigliamo di attendere 5-10 minuti dopo aver terminato l'importazione dei dati per aggiornare e visualizzare le metriche.