Ingressi, output, variabili ambientali e funzioni di supporto - Amazon Braket

Le traduzioni sono generate tramite traduzione automatica. In caso di conflitto tra il contenuto di una traduzione e la versione originale in Inglese, quest'ultima prevarrà.

Ingressi, output, variabili ambientali e funzioni di supporto

Oltre al file o ai file che compongono lo script completo dell'algoritmo, il lavoro ibrido può avere input e output aggiuntivi. All'avvio del processo ibrido, Amazon Braket copia gli input forniti come parte della creazione del lavoro ibrido nel contenitore che esegue lo script dell'algoritmo. Al termine del processo ibrido, tutti gli output definiti durante l'algoritmo vengono copiati nella posizione Amazon S3 specificata.

Nota

Le metriche dell'algoritmo vengono riportate in tempo reale e non seguono questa procedura di output.

Amazon Braket fornisce anche diverse variabili di ambiente e funzioni di supporto per semplificare le interazioni con gli input e gli output dei container.

Questa sezione spiega i concetti chiave della AwsQuantumJob.create funzione fornita da Amazon Braket Python SDK e la loro mappatura alla struttura del file contenitore.

Input

Dati di input: i dati di input possono essere forniti all'algoritmo ibrido specificando il file di dati di input, che è impostato come dizionario, con l'input_dataargomento. L'utente definisce l'input_dataargomento all'interno della AwsQuantumJob.create funzione nell'SDK. Questo copia i dati di input nel file system del contenitore nella posizione indicata dalla variabile "AMZN_BRAKET_INPUT_DIR" di ambiente. Per un paio di esempi di come i dati di input vengono utilizzati in un algoritmo ibrido, consulta QAOA con Amazon Braket Hybrid Jobs PennyLane e Quantum machine learning nei notebook Amazon Braket Hybrid Jobs Jobs Jupyter.

Nota

Quando i dati di input sono di grandi dimensioni (> 1 GB), ci sarà un lungo tempo di attesa prima che il lavoro ibrido venga inviato. Ciò è dovuto al fatto che i dati di input locali verranno prima caricati su un bucket S3, quindi il percorso S3 verrà aggiunto alla richiesta di lavoro ibrida e, infine, la richiesta di lavoro ibrida verrà inviata al servizio Braket.

Iperparametri: se si passahyperparameters, sono disponibili nella variabile di ambiente. "AMZN_BRAKET_HP_FILE"

Punti di controllo: per specificare job-arn il checkpoint di cui desideri utilizzare in un nuovo lavoro ibrido, usa il comando. copy_checkpoints_from_job Questo comando copia i dati del checkpoint nel nuovo processo ibrido, rendendoli disponibili nel percorso indicato dalla variabile di ambiente AMZN_BRAKET_CHECKPOINT_DIR durante l'esecuzione del lavoro. checkpoint_configs3Uri L'impostazione predefinita è None che i dati del checkpoint di un altro lavoro ibrido non verranno utilizzati nel nuovo lavoro ibrido.

Output

Attività quantistiche: i risultati delle attività quantistiche vengono archiviati nella posizione S3. s3://amazon-braket-<region>-<accountID>/jobs/<job-name>/tasks

Risultati del lavoro: tutto ciò che lo script dell'algoritmo salva nella directory fornita dalla variabile di ambiente "AMZN_BRAKET_JOB_RESULTS_DIR" viene copiato nella posizione S3 specificata in. output_data_config Se non specifichi questo valore, il valore predefinito è. s3://amazon-braket-<region>-<accountID>/jobs/<job-name>/<timestamp>/data Forniamo la funzione di supporto SDK save_job_result, che puoi utilizzare per archiviare comodamente i risultati sotto forma di dizionario quando richiami dallo script dell'algoritmo.

Punti di controllo: se desideri utilizzare i checkpoint, puoi salvarli nella directory fornita dalla variabile di ambiente. "AMZN_BRAKET_CHECKPOINT_DIR" Puoi invece utilizzare anche la funzione di supporto SDK. save_job_checkpoint

Metriche dell'algoritmo: puoi definire le metriche dell'algoritmo come parte dello script dell'algoritmo che vengono emesse su Amazon CloudWatch e visualizzate in tempo reale nella console Amazon Braket mentre il processo ibrido è in esecuzione. Per un esempio di come utilizzare le metriche degli algoritmi, consulta Use Amazon Braket Hybrid Jobs per eseguire un algoritmo QAOA.

Variabili di ambiente

Amazon Braket fornisce diverse variabili di ambiente per semplificare le interazioni con gli input e gli output dei container. Il codice seguente elenca le variabili ambientali utilizzate da Braket.

  • AMZN_BRAKET_INPUT_DIR— La directory dei dati di input. opt/braket/input/data

  • AMZN_BRAKET_JOB_RESULTS_DIR— La directory di output opt/braket/model in cui scrivere i risultati del lavoro.

  • AMZN_BRAKET_JOB_NAME— Il nome del lavoro.

  • AMZN_BRAKET_CHECKPOINT_DIR— L'elenco dei checkpoint.

  • AMZN_BRAKET_HP_FILE— Il file contenente gli iperparametri.

  • AMZN_BRAKET_DEVICE_ARN— L'ARN (AWS Resource Name) del dispositivo.

  • AMZN_BRAKET_OUT_S3_BUCKET— Il bucket Amazon S3 di output, come specificato nella CreateJob richiesta. OutputDataConfig

  • AMZN_BRAKET_SCRIPT_ENTRY_POINT— Il punto di ingresso specificato nella CreateJob richiesta. ScriptModeConfig

  • AMZN_BRAKET_SCRIPT_COMPRESSION_TYPE— Il tipo di compressione specificato nella CreateJob richiestaScriptModeConfig.

  • AMZN_BRAKET_SCRIPT_S3_URI— La posizione Amazon S3 dello script dell'utente come specificato nella CreateJob richiesta. ScriptModeConfig

  • AMZN_BRAKET_TASK_RESULTS_S3_URI— La posizione Amazon S3 in cui l'SDK archivia i risultati quantistici delle attività per impostazione predefinita per il lavoro.

  • AMZN_BRAKET_JOB_RESULTS_S3_PATH— La sede Amazon S3 in cui verranno archiviati i risultati del lavoro, come specificato nella CreateJob richiesta. OutputDataConfig

  • AMZN_BRAKET_JOB_TOKEN— La stringa da passare al CreateQuantumTask jobToken parametro per le attività quantistiche create nel job container.

Funzioni di supporto

Amazon Braket offre diverse funzioni di supporto per semplificare le interazioni con gli input e gli output dei container. Queste funzioni di supporto verrebbero richiamate dall'interno dello script dell'algoritmo utilizzato per eseguire Hybrid Job. L'esempio seguente mostra come utilizzarle.

get_checkpoint_dir() # Get the checkpoint directory get_hyperparameters() # Get the hyperparameters as strings get_input_data_dir() # Get the input data directory get_job_device_arn() # Get the device specified by the hybrid job get_job_name() # Get the name of the hybrid job. get_results_dir() # Get the path to a results directory save_job_result() # Save hybrid job results save_job_checkpoint() # Save a checkpoint load_job_checkpoint() # Load a previously saved checkpoint