Esportazione di un flusso di dati - Amazon SageMaker AI

Le traduzioni sono generate tramite traduzione automatica. In caso di conflitto tra il contenuto di una traduzione e la versione originale in Inglese, quest'ultima prevarrà.

Esportazione di un flusso di dati

L’esportazione del flusso di dati traduce le operazioni che hai eseguito in Data Wrangler e le esporta in un notebook Jupyter di codice Python che puoi modificare ed eseguire. Questo può essere utile per integrare il codice per le trasformazioni dei dati nelle pipeline di machine learning.

Puoi scegliere qualsiasi nodo di dati nel flusso di dati ed esportarlo. L'esportazione del nodo di dati esporta la trasformazione che il nodo rappresenta e le trasformazioni che la precedono.

Per esportare un flusso di dati come notebook Jupyter
  1. Accedi al tuo flusso di dati.

  2. Scegli l’icona con tre puntini accanto al nodo da esportare.

  3. Nel menu contestuale, passa il mouse su Esporta, quindi su Esporta tramite notebook Jupyter.

  4. Seleziona una delle seguenti opzioni:

    • SageMaker Pipelines

    • Amazon S3

    • SageMaker Pipeline di inferenza AI

    • SageMaker AI Feature Store

    • Codice Python

  5. Viene visualizzata la finestra di dialogo Esporta flusso di dati come notebook. Selezionare uno dei seguenti:

    • Scarica una copia locale

    • Esporta in una posizione S3

  6. Se hai selezionato Esporta in una posizione S3, inserisci la posizione Amazon S3 in cui esportare il notebook.

  7. Scegli Export (Esporta).

Il notebook Jupyter deve essere scaricato sul computer locale oppure è possibile trovarlo salvato nella posizione Amazon S3 specificata.