

Le traduzioni sono generate tramite traduzione automatica. In caso di conflitto tra il contenuto di una traduzione e la versione originale in Inglese, quest'ultima prevarrà.

# Importazione delle modifiche dal tuo archivio di dati
<a name="importing-files-dra"></a>

Puoi importare modifiche ai dati e ai metadati POSIX da un repository di dati collegato al tuo file system Amazon FSx. I metadati POSIX associati includono proprietà, autorizzazioni e timestamp.

Per importare le modifiche al file system, utilizzate uno dei seguenti metodi:
+ Configurate il file system per importare automaticamente file nuovi, modificati o eliminati dal repository di dati collegato. Per ulteriori informazioni, consulta [Importa automaticamente gli aggiornamenti dal tuo bucket S3](autoimport-data-repo-dra.md).
+ Seleziona l'opzione per importare i metadati quando crei un'associazione di repository di dati. Ciò avvierà un'attività di importazione dell'archivio di dati subito dopo la creazione dell'associazione dell'archivio di dati.
+ Utilizza un'attività di importazione di repository di dati su richiesta. Per ulteriori informazioni, consulta [Utilizzo delle attività di archiviazione dei dati per importare le modifiche](import-data-repo-task-dra.md).

Le attività automatiche di importazione e importazione dell'archivio di dati possono essere eseguite contemporaneamente.

Quando attivi l'importazione automatica per un'associazione di repository di dati, il file system aggiorna automaticamente i metadati dei file man mano che gli oggetti vengono creati, modificati o eliminati in S3. Quando selezioni l'opzione per importare i metadati durante la creazione di un'associazione di repository di dati, il file system importa i metadati per tutti gli oggetti nel repository di dati. Quando si esegue l'importazione utilizzando un'attività di importazione del repository di dati, il file system importa solo i metadati per gli oggetti che sono stati creati o modificati dopo l'ultima importazione.

FSx for Lustre copia automaticamente il contenuto di un file dal repository di dati e lo carica nel ﬁle system quando l'applicazione accede per la prima volta al file nel file system. Questo movimento di dati è gestito da FSx for Lustre ed è trasparente per le applicazioni. Le letture successive di questi file vengono fornite direttamente dal file system con latenze inferiori al millisecondo.

Potete anche precaricare l'intero ﬁle system o una directory all'interno del ﬁle system. Per ulteriori informazioni, consulta [Precaricamento dei file nel file system](preload-file-contents-hsm-dra.md). Se richiedi il precaricamento di più ﬁle contemporaneamente, FSx for Lustre carica i ﬁle dal tuo repository di dati Amazon S3 in parallelo.

FSx for Lustre importa solo oggetti S3 con chiavi oggetto conformi a POSIX. Sia le attività automatiche di importazione che quelle di importazione del repository di dati importano i metadati POSIX. Per ulteriori informazioni, consulta [Supporto per metadati POSIX per archivi di dati](posix-metadata-support.md).

**Nota**  
FSx for Lustre non supporta l'importazione di metadati per collegamenti simbolici (collegamenti simbolici) dalle classi di archiviazione S3 Glacier Flexible Retrieval e S3 Glacier Deep Archive. È possibile importare i metadati per gli oggetti S3 Glacier Flexible Retrieval o S3 Glacier Deep Archive che non sono collegamenti simbolici (ovvero, viene creato un inode sul file system for Lustre con i metadati corretti). FSx Tuttavia, per leggere questi dati dal file system, è necessario prima ripristinare l'oggetto S3 Glacier Flexible Retrieval o S3 Glacier Deep Archive. L'importazione di dati di file direttamente da oggetti Amazon S3 nella classe di storage S3 Glacier Flexible Retrieval o S3 Glacier Deep Archive in for Lustre non è supportata. FSx 

# Importa automaticamente gli aggiornamenti dal tuo bucket S3
<a name="autoimport-data-repo-dra"></a>

Puoi configurare FSx Lustre in modo che aggiorni automaticamente i metadati nel file system man mano che gli oggetti vengono aggiunti, modificati o eliminati dal tuo bucket S3. FSx for Lustre crea, aggiorna o elimina l'elenco di file e directory, corrispondente alla modifica in S3. Se l'oggetto modificato nel bucket S3 non contiene più i relativi metadati, FSx for Lustre mantiene i valori correnti dei metadati del file, incluse le autorizzazioni correnti.

**Nota**  
Il file system FSx for Lustre e il bucket S3 collegato devono trovarsi nello stesso per importare automaticamente gli aggiornamenti. Regione AWS 

È possibile configurare l'importazione automatica quando si crea l'associazione del repository di dati e aggiornare le impostazioni di importazione automatica in qualsiasi momento utilizzando la console di FSx gestione, l'o l'API AWS CLI. AWS 

**Nota**  
È possibile configurare sia l'importazione automatica che l'esportazione automatica sulla stessa associazione di repository di dati. Questo argomento descrive solo la funzionalità di importazione automatica.

**Importante**  
Se un oggetto viene modificato in S3 con tutte le politiche di importazione automatiche abilitate e l'esportazione automatica disabilitata, il contenuto di quell'oggetto viene sempre importato in un file corrispondente nel file system. Se un file esiste già nella posizione di destinazione, il file viene sovrascritto.
Se un file viene modificato sia nel file system che in S3, con tutte le politiche di importazione ed esportazione automatiche abilitate, il file nel file system o l'oggetto in S3 potrebbero essere sovrascritti dall'altro. Non è garantito che una modifica successiva in una posizione sovrascriva una modifica precedente in un'altra posizione. Se modifichi lo stesso file sia nel file system che nel bucket S3, dovresti garantire il coordinamento a livello di applicazione per prevenire tali conflitti. FSx for Lustre non impedisce scritture in conflitto in più posizioni.

La politica di importazione specifica come desiderate che FSx Lustre aggiorni il file system man mano che il contenuto cambia nel bucket S3 collegato. Un'associazione di archivi di dati può avere una delle seguenti politiche di importazione:
+ **Nuovo**: FSx for Lustre aggiorna automaticamente i metadati di file e directory solo quando vengono aggiunti nuovi oggetti al repository di dati S3 collegato.
+ **Modificato**: FSx for Lustre aggiorna automaticamente i metadati di file e directory solo quando viene modificato un oggetto esistente nel data repository.
+ **Eliminato** — FSx for Lustre aggiorna automaticamente i metadati di file e directory solo quando viene eliminato un oggetto nel data repository.
+ **Qualsiasi combinazione di New, Changed ed Deleted** — FSx for Lustre aggiorna automaticamente i metadati di file e directory quando si verifica una delle azioni specificate nell'archivio di dati S3. Ad esempio, puoi specificare che il file system venga aggiornato quando un oggetto viene aggiunto a (**Nuovo**) o rimosso da (**Eliminato**) dal repository S3, ma non aggiornato quando un oggetto viene modificato.
+ **Nessuna policy configurata**: FSx for Lustre non aggiorna i metadati di file e directory sul file system quando gli oggetti vengono aggiunti, modificati o eliminati dal repository di dati S3. Se non configuri una politica di importazione, l'importazione automatica è disabilitata per l'associazione del repository di dati. È comunque possibile importare manualmente le modifiche ai metadati utilizzando un'attività di importazione dell'archivio dati, come descritto in. [Utilizzo delle attività di archiviazione dei dati per importare le modifiche](import-data-repo-task-dra.md)

**Importante**  
L'importazione automatica non sincronizzerà le seguenti azioni S3 con il file system Linked FSx for Lustre:  
Eliminazione di un oggetto utilizzando le scadenze del ciclo di vita degli oggetti S3
Eliminazione permanente della versione corrente dell'oggetto in un bucket abilitato al controllo delle versioni
Annullamento di un oggetto in un bucket abilitato al controllo delle versioni

****Nella maggior parte dei casi d'uso, si consiglia di configurare una politica di importazione di **Nuovo**, Modificato ed Eliminato.**** Questa politica garantisce che tutti gli aggiornamenti effettuati nel repository di dati S3 collegato vengano importati automaticamente nel file system.

Quando imposti una politica di importazione per aggiornare i metadati dei file e delle directory del file system in base alle modifiche nel repository di dati S3 collegato, FSx for Lustre crea una configurazione di notifica degli eventi sul bucket S3 collegato. La configurazione della notifica degli eventi è denominata. `FSx` Non modificare o eliminare la configurazione della notifica `FSx` degli eventi nel bucket S3: in questo modo si impedirà l'importazione automatica di metadati aggiornati di file e directory nel file system.

Quando FSx for Lustre aggiorna un elenco di file che è stato modificato nel repository di dati S3 collegato, sovrascrive il file locale con la versione aggiornata, anche se il file è bloccato in scrittura.

FSx for Lustre fa del suo meglio per aggiornare il file system. FSx for Lustre non è in grado di aggiornare il file system nelle seguenti situazioni:
+ Se FSx for Lustre non dispone dell'autorizzazione per aprire l'oggetto S3 nuovo o modificato. In questo caso, FSx for Lustre salta l'oggetto e continua. Lo stato del ciclo di vita DRA non è influenzato.
+ Se FSx for Lustre non dispone di autorizzazioni a livello di bucket, ad esempio for. `GetBucketAcl` **Ciò causerà una configurazione errata dello stato del ciclo di vita del repository di dati.** Per ulteriori informazioni, consulta [Stato del ciclo di vita dell'associazione al repository di dati](dra-lifecycles.md).
+ Se la configurazione di notifica `FSx` degli eventi sul bucket S3 collegato viene eliminata o modificata. **Ciò causerà una configurazione errata dello stato del ciclo di vita del repository di dati.** Per ulteriori informazioni, consulta [Stato del ciclo di vita dell'associazione al repository di dati](dra-lifecycles.md).

Ti consigliamo di [attivare la registrazione in](cw-event-logging.md#manage-logging) CloudWatch Logs per registrare le informazioni su file o directory che non possono essere importati automaticamente. Gli avvisi e gli errori nel registro contengono informazioni sul motivo dell'errore. Per ulteriori informazioni, consulta [Registri degli eventi del data repository](data-repo-event-logs.md).

## Prerequisiti
<a name="auto-import-prereqs-dra"></a>

 FSx Affinché Lustre importi automaticamente file nuovi, modificati o eliminati dal bucket S3 collegato, sono necessarie le seguenti condizioni:
+ Il file system e il bucket S3 collegato si trovano nello stesso. Regione AWS
+ **Il bucket S3 non ha uno stato del ciclo di vita configurato in modo errato.** Per ulteriori informazioni, consulta [Stato del ciclo di vita dell'associazione al repository di dati](dra-lifecycles.md).
+ Il tuo account dispone delle autorizzazioni necessarie per configurare e ricevere notifiche di eventi sul bucket S3 collegato.

## Tipi di modifiche ai file supportati
<a name="file-change-support-dra"></a>

FSx for Lustre supporta l'importazione delle seguenti modifiche ai file e alle directory che si verificano nel bucket S3 collegato:
+ Modifiche al contenuto dei file.
+ Modifiche ai metadati di file o directory.
+ Modifiche alla destinazione o ai metadati del collegamento simbolico.
+ Eliminazioni di file e cartelle. Se elimini un oggetto nel bucket S3 collegato che corrisponde a una directory nel file system (ovvero un oggetto con un nome chiave che termina con una barra), FSx for Lustre elimina la directory corrispondente sul file system solo se è vuota.

## Aggiornamento delle impostazioni di importazione
<a name="manage-autoimport-dra"></a>

Puoi configurare le impostazioni di importazione di un file system per un bucket S3 collegato quando crei l'associazione del repository di dati. Per ulteriori informazioni, consulta [Creazione di un link a un bucket S3](create-linked-dra.md).

Puoi anche aggiornare le impostazioni di importazione in qualsiasi momento, inclusa la politica di importazione. Per ulteriori informazioni, consulta [Aggiornamento delle impostazioni di associazione agli archivi di dati](update-dra-settings.md).

## Monitoraggio dell'importazione automatica
<a name="monitoring-autoimport"></a>

Se la velocità di modifica nel bucket S3 supera la velocità con cui l'importazione automatica può elaborare queste modifiche, le corrispondenti modifiche ai metadati importate nel file system FSx for Lustre vengono ritardate. In tal caso, puoi utilizzare la `AgeOfOldestQueuedMessage` metrica per monitorare l'età della modifica più vecchia in attesa di essere elaborata mediante importazione automatica. Per ulteriori informazioni su questa metrica, consulta. [FSx per le metriche del repository Lustre S3](fs-metrics.md#auto-import-export-metrics)

Se il ritardo nell'importazione delle modifiche ai metadati supera i 14 giorni (in base alla `AgeOfOldestQueuedMessage` metrica), le modifiche nel bucket S3 che non sono state elaborate mediante l'importazione automatica non vengono importate nel file system. **Inoltre, il ciclo di vita dell'associazione al repository di dati è contrassegnato come MAL CONFIGURATO e l'importazione automatica viene interrotta.** Se hai abilitato l'esportazione automatica, l'esportazione automatica continua a monitorare le modifiche del file system FSx for Lustre. Tuttavia, le modifiche aggiuntive non vengono sincronizzate dal file system FSx for Lustre a S3.

Per riportare l'associazione del repository di dati dallo stato del ciclo di vita **ERRONEAMENTE CONFIGURATO** allo stato del ciclo di vita **DISPONIBILE, è necessario aggiornare** l'associazione del repository di dati. È possibile aggiornare l'associazione del repository di dati utilizzando il comando [update-data-repository-association](https://docs.aws.amazon.com/cli/latest/reference/fsx/update-data-repository-association.html)CLI (o l'operazione API [UpdateDataRepositoryAssociation](https://docs.aws.amazon.com/fsx/latest/APIReference/API_UpdateDataRepositoryAssociation.html)corrispondente). L'unico parametro di richiesta di cui hai bisogno è l'associazione `AssociationID` di repository di dati che desideri aggiornare.

Dopo che lo stato del ciclo di vita dell'associazione al repository di dati è passato a AVAILABLE, **l'**importazione automatica (e l'esportazione automatica se abilitata) si riavvia. Al riavvio, l'esportazione automatica riprende la sincronizzazione delle modifiche del file system su S3. [Per sincronizzare i metadati degli oggetti nuovi e modificati in S3 con il file system FSx for Lustre che non sono stati importati o che provengono da quando l'associazione dell'archivio di dati era in uno stato configurato erroneamente, esegui un'attività di importazione dell'archivio dati.](import-data-repo-task-dra.md) Le attività di importazione del repository di dati non sincronizzano le eliminazioni nel bucket S3 con il file system for Lustre. FSx Se desideri sincronizzare completamente S3 con il tuo file system (incluse le eliminazioni), devi ricreare il file system.

Per garantire che i ritardi nell'importazione delle modifiche ai metadati non superino i 14 giorni, ti consigliamo di impostare un allarme sulla `AgeOfOldestQueuedMessage` metrica e di ridurre l'attività nel tuo bucket S3 se la metrica supera la soglia di allarme. `AgeOfOldestQueuedMessage` Per un file system FSx for Lustre collegato a un bucket S3 con un singolo shard che invia continuamente il numero massimo di modifiche possibili da S3, con la sola importazione automatica in esecuzione sul file system FSx for Lustre, l'importazione automatica può elaborare un arretrato di 7 ore di modifiche S3 entro 14 giorni.

Inoltre, con una singola azione S3, puoi generare più modifiche di quante ne possa mai elaborare l'importazione automatica in 14 giorni. Esempi di questi tipi di azioni includono, a titolo esemplificativo, i AWS Snowball caricamenti su S3 e le eliminazioni su larga scala. Se apporti una modifica su larga scala al tuo bucket S3 che desideri sincronizzare con il file system FSx for Lustre, per evitare che le modifiche automatiche all'importazione superino i 14 giorni, dovresti eliminare il file system e ricrearlo una volta completata la modifica a S3.

Se la tua `AgeOfOldestQueuedMessage` metrica è in crescita, esamina il bucket S3 e le `DeleteRequests` metriche per `GetRequests` individuare `PutRequests` eventuali modifiche alle attività che potrebbero causare un aumento della frequenza delle modifiche inviate all'importazione automatica. `PostRequests` and/or Per informazioni sui parametri S3 disponibili, consulta [Monitoring Amazon S3 nella Amazon](https://docs.aws.amazon.com/AmazonS3/latest/userguide/monitoring-overview.html) S3 User *Guide*.

Per un elenco di tutte le metriche disponibili FSx per Lustre, consulta. [Monitoraggio con Amazon CloudWatch](monitoring-cloudwatch.md)

# Utilizzo delle attività di archiviazione dei dati per importare le modifiche
<a name="import-data-repo-task-dra"></a>

L'attività di importazione dell'archivio di dati importa i metadati degli oggetti nuovi o modificati nel tuo repository di dati S3, creando un nuovo elenco di file o directory per ogni nuovo oggetto nell'archivio di dati S3. Per ogni oggetto che è stato modificato nel repository di dati, l'elenco di file o directory corrispondente viene aggiornato con i nuovi metadati. Non viene intrapresa alcuna azione per gli oggetti che sono stati eliminati dal data repository.

Utilizza le seguenti procedure per importare le modifiche ai metadati utilizzando la FSx console Amazon e la CLI. Tieni presente che puoi utilizzare un'attività di archivio dati per più attività. DRAs

## Per importare le modifiche ai metadati (console)
<a name="create-import-data-repo-task-dra-console"></a>

1. Apri la FSx console Amazon all'indirizzo [https://console.aws.amazon.com/fsx/](https://console.aws.amazon.com/fsx/).

1. Nel pannello di navigazione, scegli **File system**, quindi scegli il tuo Lustre file system.

1. Scegli la scheda **Archivio dati**.

1. Nel riquadro **Associazioni agli archivi di dati**, scegli le associazioni degli archivi di dati per cui desideri creare l'attività di importazione.

1. Dal menu **Azioni**, scegli **Importa** attività. Questa scelta non è disponibile se il file system non è collegato a un archivio di dati. Viene visualizzata la pagina dell'**attività Crea archivio dati di importazione**.

1. (Facoltativo) Specificate fino a 32 directory o file da importare dai bucket S3 collegati fornendo i percorsi di tali directory o file nei percorsi del repository di **dati** da importare.
**Nota**  
Se un percorso fornito non è valido, l'attività ha esito negativo.

1. (Facoltativo) Scegliete **Abilita** in **Rapporto di completamento** per generare un rapporto sul completamento dell'attività dopo il completamento dell'attività. Un *rapporto sul completamento dell'attività* fornisce dettagli sui file elaborati dall'attività che soddisfano l'ambito fornito in Ambito del **rapporto**. Per specificare la posizione in cui Amazon FSx deve recapitare il report, inserisci un percorso relativo su un repository di dati S3 collegato per **Report** path.

1. Scegli **Create** (Crea). 

   Una notifica nella parte superiore della pagina **File system** mostra l'attività che hai appena creato in corso. 

Per visualizzare lo stato e i dettagli dell'attività, scorri verso il basso fino al riquadro **Attività del data Repository** nella scheda **Data Repository** per il file system. L'ordinamento predefinito mostra l'attività più recente nella parte superiore dell'elenco.

Per visualizzare un riepilogo dell'attività da questa pagina, scegli **Task ID** per l'attività appena creata. Viene visualizzata la pagina di **riepilogo** dell'attività. 

## Per importare modifiche ai metadati (CLI)
<a name="create-import-data-repo-task-dra-cli"></a>
+ Utilizzate il comando [https://docs.aws.amazon.com/cli/latest/reference/fsx/create-data-repository-task.html](https://docs.aws.amazon.com/cli/latest/reference/fsx/create-data-repository-task.html)CLI per importare le modifiche ai metadati sul file system FSx for Lustre. L'operazione API corrispondente è. [https://docs.aws.amazon.com/fsx/latest/APIReference/API_CreateDataRepositoryTask.html](https://docs.aws.amazon.com/fsx/latest/APIReference/API_CreateDataRepositoryTask.html)

  ```
  $ aws fsx create-data-repository-task \
      --file-system-id fs-0123456789abcdef0 \
      --type IMPORT_METADATA_FROM_REPOSITORY \
      --paths s3://bucketname1/dir1/path1 \
      --report Enabled=true,Path=s3://bucketname1/dir1/path1,Format=REPORT_CSV_20191124,Scope=FAILED_FILES_ONLY
  ```

  Dopo aver creato correttamente l'attività di archiviazione dei dati, Amazon FSx restituisce la descrizione dell'attività come JSON.

Dopo aver creato l'attività per importare i metadati dal repository di dati collegato, puoi controllare lo stato dell'attività di importazione dell'archivio di dati. Per ulteriori informazioni sulla visualizzazione delle attività del data repository, vedere. [Accesso alle attività del repository di dati](view-data-repo-tasks.md)

# Precaricamento dei file nel file system
<a name="preload-file-contents-hsm-dra"></a>

Facoltativamente, puoi precaricare contenuti, singoli file o directory nel tuo file system.

## Importazione di file tramite comandi HSM
<a name="preload-hsm"></a>

Amazon FSx copia i dati dal tuo repository di dati Amazon S3 al primo accesso a un file. Grazie a questo approccio, la lettura o la scrittura iniziale su un file comporta una piccola latenza. Se l'applicazione è sensibile a questa latenza e sapete a quali file o directory deve accedere, potete facoltativamente precaricare il contenuto di singoli file o directory. A tale scopo, utilizzare il comando seguente. `hsm_restore`

È possibile utilizzare il `hsm_action` comando (rilasciato con l'utilità `lfs` utente) per verificare che il contenuto del file abbia terminato il caricamento nel file system. Il valore restituito da `NOOP` indica che il file è stato caricato correttamente. Esegui i seguenti comandi da un'istanza di calcolo con il file system montato. Sostituiscilo *path/to/file* con il percorso del file che stai precaricando nel file system.

```
sudo lfs hsm_restore path/to/file
sudo lfs hsm_action path/to/file
```

È possibile precaricare l'intero file system o un'intera directory all'interno del file system utilizzando i seguenti comandi. (La e commerciale finale esegue un comando come processo in background). Se richiedi il precaricamento di più file contemporaneamente, Amazon FSx carica i file dal tuo repository di dati Amazon S3 in parallelo. Se un file è già stato caricato nel file system, il `hsm_restore` comando non lo ricarica.

```
nohup find local/directory -type f -print0 | xargs -0 -n 1 -P 8 sudo lfs hsm_restore &
```

**Nota**  
Se il bucket S3 collegato è più grande del file system, dovresti essere in grado di importare tutti i metadati dei file nel tuo file system. Tuttavia, puoi caricare solo la quantità effettiva di dati di file che rientra nello spazio di archiviazione rimanente del file system. Riceverai un errore se tenti di accedere ai dati dei file quando non c'è più spazio di archiviazione sul file system. In tal caso, è possibile aumentare la quantità di capacità di archiviazione in base alle esigenze. Per ulteriori informazioni, consulta [Gestione della capacità di archiviazione](managing-storage-capacity.md).

## Fase di convalida
<a name="preload-validation"></a>

Puoi eseguire lo script bash elencato di seguito per aiutarti a scoprire quanti file o oggetti si trovano in uno stato di archiviazione (rilasciato).

Per migliorare le prestazioni dello script, in particolare su file system con un numero elevato di file, i thread della CPU vengono determinati automaticamente in base al file. `/proc/cpuproc` In altre parole, vedrai prestazioni più veloci con un'istanza Amazon EC2 con un numero di vCPU più elevato.

1. Configura lo script bash.

   ```
   #!/bin/bash
   
   # Check if a directory argument is provided
   if [ $# -ne 1 ]; then
       echo "Usage: $0 /path/to/lustre/mount"
       exit 1
   fi
   
   # Set the root directory from the argument
   ROOT_DIR="$1"
   
   # Check if the provided directory exists
   if [ ! -d "$ROOT_DIR" ]; then
       echo "Error: Directory $ROOT_DIR does not exist."
       exit 1
   fi
   
   # Automatically detect number of CPUs and set threads
   if command -v nproc &> /dev/null; then
       THREADS=$(nproc)
   elif [ -f /proc/cpuinfo ]; then
       THREADS=$(grep -c ^processor /proc/cpuinfo)
   else
       echo "Unable to determine number of CPUs. Defaulting to 1 thread."
       THREADS=1
   fi
   
   # Output file
   OUTPUT_FILE="released_objects_$(date +%Y%m%d_%H%M%S).txt"
   
   echo "Searching in $ROOT_DIR for all released objects using $THREADS threads"
   echo "This may take a while depending on the size of the filesystem..."
   
   # Find all released files in the specified lustre directory using parallel
   # If you  get false positives for file names/paths that include the word 'released',
   # you can grep 'released exists archived' instead of just 'released'
   time sudo lfs find "$ROOT_DIR" -type f | \
   parallel --will-cite -j "$THREADS" -n 1000 "sudo lfs hsm_state {} | grep released" > "$OUTPUT_FILE"
   
   echo "Search complete. Released objects are listed in $OUTPUT_FILE"
   echo "Total number of released objects: $(wc -l <"$OUTPUT_FILE")"
   ```

1. Rendi eseguibile lo script:

   ```
   $ chmod +x find_lustre_released_files.sh
   ```

1. Esegui lo script, come nell'esempio seguente:

   ```
   $ ./find_lustre_released_files.sh /fsxl/sample
   Searching in /fsxl/sample for all released objects using 16 threads
   This may take a while depending on the size of the filesystem...
   real 0m9.906s
   user 0m1.502s
   sys 0m5.653s
   Search complete. Released objects are listed in released_objects_20241121_184537.txt
   Total number of released objects: 30000
   ```

Se sono presenti oggetti rilasciati, esegui un ripristino in blocco nelle directory desiderate per importare i file in FSx for Lustre da S3, come nell'esempio seguente:

```
$ DIR=/path/to/lustre/mount
$ nohup find $DIR -type f -print0 | xargs -0 -n 1 -P 8 sudo lfs hsm_restore &
```

Nota che ci `hsm_restore` vorrà del tempo se ci sono milioni di file.