Le traduzioni sono generate tramite traduzione automatica. In caso di conflitto tra il contenuto di una traduzione e la versione originale in Inglese, quest'ultima prevarrà.
File di configurazione dell'analisi
Per analizzare i dati e i modelli per verificarne la spiegabilità e le distorsioni utilizzando SageMaker Clarify, è necessario configurare un processo di elaborazione. Parte della configurazione per questo processo di elaborazione include la configurazione di un file di analisi. Il file di analisi specifica i parametri per l'analisi dei bias e la spiegabilità. Scopri come configurare un processo di elaborazione e un file di analisi. Configurazione di un processo di elaborazione SageMaker Clarify
La presente guida descrive lo schema e i parametri per questo file di configurazione dell'analisi. Questa guida include anche esempi di file di configurazione dell'analisi per il calcolo delle metriche di distorsione per un set di dati tabulare e la generazione di spiegazioni per problemi di elaborazione del linguaggio naturale (NLP), visione artificiale (CV) e serie temporali (TS).
Puoi creare il file di configurazione dell'analisi o utilizzare SageMaker Python SDK
Argomenti
Schema per il file di configurazione dell'analisi
La sezione seguente descrive lo schema per il file di configurazione dell'analisi, inclusi i requisiti e le descrizioni dei parametri.
Schema per il file di configurazione dell'analisi
Il processo di elaborazione SageMaker Clarify prevede che il file di configurazione dell'analisi sia strutturato con i seguenti requisiti:
-
Il nome di input dell'elaborazione deve essere
analysis_config.. -
Il file di configurazione dell'analisi è in formato JSON e codificato in UTF-8.
-
Il file di configurazione dell'analisi è un oggetto Amazon S3.
È possibile specificare parametri aggiuntivi nel file di configurazione dell'analisi. La sezione seguente fornisce varie opzioni per personalizzare il processo di elaborazione di SageMaker Clarify in base al caso d'uso e ai tipi di analisi desiderati.
È possibile specificare parametri nel file di configurazione dell'analisi.
-
version: (facoltativo) la stringa della versione dello schema del file di configurazione dell'analisi. Se non viene fornita una versione, SageMaker Clarify utilizza l'ultima versione supportata. Attualmente la sola versione supportata è
1.0. -
dataset_type: il formato del set di dati. Il formato del set di dati di input può essere uno dei seguenti valori:
Tabulare
-
text/csvper CSV -
application/jsonlinesper il formato SageMaker denso AI JSON Lines -
application/jsonper JSON -
application/x-parquetper Apache Parquet -
application/x-imageper attivare la spiegabilità dei problemi di visione artificiale
-
Spiegazioni del modello di previsione delle serie temporali
application/jsonper JSON
-
dataset_uri: (facoltativo) l'Uniform Resource Identifier (URI) del set di dati principale. Se fornite un prefisso URI S3, il processo di elaborazione SageMaker Clarify raccoglie in modo ricorsivo tutti i file S3 che si trovano sotto il prefisso. È possibile fornire un prefisso URI S3 o un URI S3 a un file manifesto di immagini per problemi di visione artificiale. Se fornito,
dataset_uriha la precedenza sull'input del processo di elaborazione del set di dati. Per qualsiasi tipo di formato, ad eccezione dei casi d'uso di immagini e serie temporali, il processo di elaborazione SageMaker Clarify carica il set di dati di input in un frame di dati tabulare, come set di dati tabulare. Questo formato consente all' SageMaker intelligenza artificiale di manipolare e analizzare facilmente il set di dati di input. -
headers — (Facoltativo)
Tabulare: una matrice di stringhe contenente i nomi delle colonne di un set di dati tabulare. Se non viene fornito un valore
headers, il processo di elaborazione SageMaker Clarify legge le intestazioni dal set di dati. Se il set di dati non ha intestazioni, il processo di elaborazione Clarify genera automaticamente i nomi dei segnaposto in base all'indice di colonna a base zero. Ad esempio, i nomi dei segnaposto per la prima e la seconda colonna saranno, e così via.column_0column_1Nota
Per convenzione, if
dataset_typeisapplication/jsonlinesorapplication/json, alloraheadersdovrebbe contenere i seguenti nomi nell'ordine:nomi delle funzionalità
nome dell'etichetta (
labelse specificato)nome dell'etichetta previsto (se
predicted_labelspecificato)
Un esempio per
headersper un tipo di set di datiapplication/jsonlinesselabelè specificato è:["feature1","feature2","feature3","target_label"].Serie temporali: un elenco di nomi di colonne nel set di dati. Se non viene fornito, Clarify genera intestazioni da utilizzare internamente. Per i casi di spiegabilità delle serie temporali, fornite le intestazioni nel seguente ordine:
id dell'articolo
timestamp
serie temporale di destinazione
tutte le colonne relative alle serie temporali
tutte le colonne covariate statiche
-
label: (facoltativo) una stringa o un indice intero a base zero. Se fornito,
labelviene utilizzato per individuare l'etichetta Ground Truth, nota anche come etichetta osservata o attributo di destinazione in un set di dati tabulare. L'etichetta Ground Truth viene utilizzata per calcolare i parametri di bias. Il valore dilabelviene specificato in base al valore del parametrodataset_typenel modo seguente.-
Se
dataset_typeètext/csv,labelpuò essere specificato in uno dei seguenti modi:-
Un nome colonna valido
-
Un indice che si trova all'interno dell'intervallo delle colonne del set di dati
-
-
Se
dataset_typeèapplication/parquet,labeldeve essere un nome colonna valido. -
Se
dataset_typeè cosìapplication/jsonlines,labeldeve essere un'JMESPathespressione scritta per estrarre l'etichetta di verità fondamentale dal set di dati. Per convenzione, se headersè specificato, deve contenere il nome dell'etichetta. -
In caso
dataset_typeapplication/jsonaffermativo,labeldeve essere un'JMESPathespressione scritta per estrarre l'etichetta di verità fondamentale per ogni record nel set di dati. Questa JMESPath espressione deve produrre un elenco di etichette in cui i l'etichetta è correlata a quelle del record.
-
-
predicted_label: (facoltativo) una stringa o un indice intero a base zero. Se fornito,
predicted_labelviene utilizzato per individuare la colonna contenente l'etichetta prevista in un set di dati tabulare. L'etichetta prevista viene utilizzata per calcolare i parametri di bias post-addestramento. Il parametropredicted_labelè facoltativo se il set di dati non include l'etichetta prevista. Se per il calcolo sono necessarie le etichette previste, il processo di elaborazione di SageMaker Clarify otterrà le previsioni dal modello.Il valore di
predicted_labelviene specificato in base al valore didataset_typecome segue:-
Se
dataset_typeètext/csv,predicted_labelpuò essere specificato come segue:-
Un nome colonna valido. Se
predicted_label_dataset_uriè specificato, mapredicted_labelnon viene fornito, il nome dell'etichetta prevista di default è "predicted_label". -
Un indice che si trova all'interno dell'intervallo delle colonne del set di dati. Se
predicted_label_dataset_uriè specificato, l'indice viene utilizzato per individuare la colonna dell'etichetta prevista nel set di dati dell'etichetts prevista.
-
-
Se dataset_type è
application/x-parquet,predicted_labeldeve essere un nome colonna valido. -
Se dataset_type è
application/jsonlines,predicted_labeldeve essere un'JMESPathespressione valida scritta per estrarre l'etichetta prevista dal set di dati. Per convenzione, se headersè specificato, deve contenere il nome dell'etichetta prevista. -
In caso
dataset_typeaffermativoapplication/json,predicted_labeldeve essere scritta un'JMESPathespressione per estrarre l'etichetta prevista per ogni record nel set di dati. L' JMESPath espressione dovrebbe produrre un elenco di etichette previste in cui i l'etichetta prevista è per loro nel record.
-
-
features — (Facoltativo) Obbligatorio per i casi non-time-series d'uso se
dataset_typeèapplication/jsonlinesoapplication/json. Un'espressione JMESPath stringa scritta per individuare le funzionalità nel set di dati di input. Infattiapplication/jsonlines, verrà applicata un' JMESPath espressione a ciascuna riga per estrarre le caratteristiche di quel record. Infattiapplication/json, un' JMESPath espressione verrà applicata all'intero set di dati di input. L' JMESPath espressione dovrebbe estrarre un elenco di elenchi o un 2D array/matrix di funzionalità in cui la riga i contiene le caratteristiche correlate a tali elementi nel record. Per undataset_typeditext/csvoapplication/x-parquet, tutte le colonne, tranne le colonne dell'etichetta Ground Truth e dell'etichetta prevista, vengono assegnate automaticamente come funzionalità. -
predicted_label_dataset_uri — (Facoltativo) Applicabile solo quando dataset_type è.
text/csvL'URI S3 per un set di dati contenente le etichette previste utilizzate per calcolare i parametri di bias post-addestramento. Il processo di elaborazione di SageMaker Clarify caricherà le previsioni dall'URI fornito invece di ottenere le previsioni dal modello. In questo caso,predicted_labelè necessario per individuare la colonna dell'etichetta prevista nel set di dati dell'etichetta prevista. Se il set di dati dell'etichetta prevista o il set di dati principale è suddiviso in più file,joinsource_name_or_indexdeve specificare una colonna identificativa per unire i due set di dati. -
predicted_label_headers — (Facoltativo) Applicabile solo quando specificato.
predicted_label_dataset_uriUna matrice di stringhe contenente i nomi colonne del set di dati dell'etichetta prevista. Oltre all'intestazione dell'etichetta prevista,predicted_label_headerspuò contenere anche l'intestazione della colonna identificativa per unire il set di dati dell'etichetta prevista e il set di dati principale. Per ulteriori informazioni, consulta la descrizione del parametrojoinsource_name_or_index. -
joinsource_name_or_index — (Facoltativo) Il nome o l'indice a base zero della colonna nei set di dati tabulari da utilizzare come colonna identificativa durante l'esecuzione di un join interno. Questa colonna viene utilizzata solo come identificatore. Non viene utilizzata per altri calcoli come l'analisi di bias o l'analisi dell'attribuzione delle funzionalità. È necessario un valore di
joinsource_name_or_indexnei seguenti casi:-
Esistono più set di dati di input e ognuno è suddiviso in più file.
-
L'elaborazione distribuita viene attivata impostando il processo di elaborazione Clarify su un valore maggiore di. SageMaker InstanceCount
1
-
-
excluded_columns: (facoltativo) una matrice di nomi o indici di colonne a base zero da escludere dall'invio al modello come input per le previsioni. L'etichetta Ground Truth e l'etichetta prevista vengono già escluse automaticamente. Questa funzionalità non è supportata per le serie temporali.
-
probability_threshold: (facoltativo) un numero a virgola mobile al di sopra del quale viene selezionata un'etichetta o un oggetto. Il valore predefinito è
0.5. Il processo di elaborazione di SageMaker Clarify utilizzaprobability_thresholdnei seguenti casi:-
Nell'analisi dei bias post-addestramento,
probability_thresholdconverte la previsione di un modello numerico (valore di probabilità o punteggio) in un'etichetta binaria, se il modello è un classificatore binario. Un punteggio superiore alla soglia viene convertito in1. Un punteggio uguale o inferiore alla soglia viene convertito in0. -
Nei problemi di spiegabilità della visione artificiale, se model_type è
OBJECT_DETECTION,, probability_thresholdfiltra gli oggetti con punteggi di attendibilità inferiori al valore di soglia.
-
-
label_values_or_threshold — (Facoltativo) Necessario per l'analisi delle distorsioni. Una matrice di valori delle etichette o un numero di soglia, che indica un risultato positivo per le etichette Ground Truth e prevista per i parametri di bias. Per ulteriori informazioni, consulta Valori di etichetta positivi in. Amazon SageMaker chiarisce i termini relativi a parzialità ed equità Se l'etichetta è numerica, la soglia viene applicata come limite inferiore per selezionare il risultato positivo. Per impostare
label_values_or_thresholdper diversi tipi di problemi, fai riferimento ai seguenti esempi:-
Per un problema di classificazione binaria, l'etichetta ha due valori possibili,
0e1. Se il valore dell'etichetta1è favorevole a un gruppo demografico osservato in un campione, alloralabel_values_or_thresholddeve essere impostato su[1]. -
Per un problema di classificazione multiclasse, l'etichetta ha tre valori possibili:
bird,catedog. Se gli ultimi due definiscono un gruppo demografico favorito dai bias, alloralabel_values_or_thresholddeve essere impostato su["cat","dog"]. -
Per un problema di regressione, il valore dell'etichetta è continuo e va da
0a1. Se un valore maggiore di0.5deve indicare che un campione ha un risultato positivo, alloralabel_values_or_thresholddeve essere impostato su0.5.
-
-
facet: (Facoltativo) Necessario per l'analisi delle distorsioni. Una matrice di oggetti facet, composti da attributi sensibili in base ai quali viene misurato il bias. È possibile utilizzare i facet per comprendere le caratteristiche di bias del set di dati e del modello anche se il modello viene addestrato senza utilizzare attributi sensibili. Per ulteriori informazioni, vedete Facet in. Amazon SageMaker chiarisce i termini relativi a parzialità ed equità Questo oggetto facet include i seguenti campi:
-
name_or_index — (Facoltativo) Il nome o l'indice a base zero della colonna degli attributi sensibili in un set di dati tabulare. Se
facet_dataset_uriè specificato, l'indice si riferisce al set di dati facet anziché al set di dati principale. -
value_or_threshold — (Facoltativo) (Obbligatorio) se
facetè numerico elabel_values_or_thresholdviene applicato come limite inferiore per selezionare il gruppo sensibile). Una matrice di valori facet o un numero di soglia che indica il gruppo demografico sensibile favorito dal bias. Se il tipo di dati facet è categorico evalue_or_thresholdnon viene fornito, i parametri di bias vengono calcolati come un gruppo per ogni valore univoco (anziché per tutti i valori). Per impostarevalue_or_thresholdper tipi di datifacetdiversi, fai riferimento ai seguenti esempi:-
Per un tipo di dati facet binario, la funzionalità ha due valori possibili:
0e1. Se desideri calcolare i parametri di bias per ogni valore, puoi ometterevalue_or_thresholdo impostarlo su una matrice vuota. -
Per un tipo di dati facet categorico, la funzionalità ha tre valori possibili:
bird,catedog. Se i primi due definiscono un gruppo demografico favorito dai bias, alloravalue_or_thresholddeve essere impostato su["bird", "cat"]. In questo esempio, i campioni del set di dati sono suddivisi in due gruppi demografici. Il facet del gruppo avvantaggiato ha valorebirdoppurecat, mentre il facet del gruppo svantaggiato ha valoredog. -
Per un tipo di dati facet numerico, il valore della funzionalità è continuo e va da
0a1. Ad esempio, se un valore maggiore di0.5deve indicare un campione come favorito, alloravalue_or_thresholddeve essere impostato su.0.5In questo esempio, i campioni del set di dati sono suddivisi in due gruppi demografici. Il facet del gruppo avvantaggiato ha un valore maggiore di0.5, mentre il facet del gruppo svantaggiato ha un valore inferiore o uguale a0.5.
-
-
-
group_variable — (Facoltativo) Il nome o l'indice a base zero della colonna che indica il sottogruppo da utilizzare per la metrica di distorsione o. Disparità demografica condizionale (CDD) Disparità demografica condizionale nelle etichette previste (CDDPL)
-
facet_dataset_uri — (Facoltativo) Applicabile solo quando dataset_type è.
text/csvL'URI S3 per un set di dati contenente attributi sensibili per l'analisi dei bias. È possibile utilizzare i facet per comprendere le caratteristiche di bias del set di dati e del modello anche se il modello viene addestrato senza utilizzare attributi sensibili.Nota
Se il set di dati facet o il set di dati principale è suddiviso in più file,
joinsource_name_or_indexdeve specificare una colonna identificativa per unire i due set di dati. È necessario utilizzare il parametrofacetper identificare ogni facet nel set di dati facet. -
facet_headers — (Facoltativo) Applicabile solo quando specificato.
facet_dataset_uriUna matrice di stringhe contenente i nomi delle colonne per il set di dati facet e, facoltativamente, l'intestazione della colonna dell'identificatore per unire il set di dati facet e il set di dati principale, vedi.joinsource_name_or_index -
time_series_data_config — (Facoltativo) Specifica la configurazione da utilizzare per l'elaborazione dei dati di una serie temporale.
item_id — Una stringa o un indice intero a base zero. Questo campo viene utilizzato per individuare l'ID di un elemento nel set di dati di input condiviso.
timestamp: una stringa o un indice intero a base zero. Questo campo viene utilizzato per individuare un timestamp nel set di dati di input condiviso.
dataset_format — I valori possibili sono, o.
columnsitem_recordstimestamp_recordsQuesto campo viene utilizzato per descrivere il formato di un set di dati JSON, che è l'unico formato supportato per la spiegabilità delle serie temporali.target_time_series — Una stringa o un indice intero a base zero. JMESPath Questo campo viene utilizzato per individuare la serie temporale di destinazione nel set di dati di input condiviso. Se questo parametro è una stringa, tutti gli altri parametri tranne
dataset_formatdevono essere stringhe o elenchi di stringhe. Se questo parametro è un numero intero, tutti gli altri parametri trannedataset_formatdevono essere numeri interi o elenchi di numeri interi.related_time_series — (Facoltativo) Una matrice di espressioni. JMESPath Questo campo viene utilizzato per individuare tutte le serie temporali correlate nel set di dati di input condiviso, se presente.
static_covariates — (Facoltativo) Una matrice di espressioni. JMESPath Questo campo viene utilizzato per individuare tutti i campi covariati statici nel set di dati di input condiviso, se presenti.
Per alcuni esempi, consulta Esempi di configurazione di set di dati di serie temporali.
-
methods: un oggetto contenente uno o più metodi di analisi e i relativi parametri. Se un metodo viene omesso, non viene né utilizzato per l'analisi né riportato.
-
pre_training_bias: includi questo metodo se desideri calcolare i parametri di bias prima dell'addestramento. La descrizione dettagliata delle metriche è disponibile in. Metriche di bias pre-addestramento L'oggetto ha i seguenti parametri:
-
methods: una matrice che contiene tutti i parametri di bias pre-addestramento che si desidera calcolare, inclusi nell'elenco seguente. Imposta
methodssuallper calcolare tutti i parametri di bias pre-addestramento. Ad esempio, la matrice["CI", "DPL"]calcolerà Squilibrio di classe e Differenza nelle proporzioni delle etichette.-
CIper Squilibrio di classe (CI) -
LPper Lp-norm (LP) -
KSper Kolmogorov-Smirnov (KS)
-
-
-
post_training_bias: includi questo metodo se desideri calcolare i parametri di bias pre-addestramento. La descrizione dettagliata delle metriche è disponibile in. Dati post-allenamento e metriche di distorsione dei modelli L'oggetto
post_training_biasha i parametri riportati di seguito.-
methods: una matrice che contiene tutti i parametri di bias post-addestramento che si desidera calcolare, inclusi nell'elenco seguente. Imposta
methodssuallper calcolare tutti i parametri di bias post-addestramento. Ad esempio, la matrice["DPPL", "DI"]calcola Differenza nelle proporzioni positive delle etichette previste e Impatto disparato. I metodi disponibili sono i seguenti.
-
-
shap: includi questo metodo se desideri calcolare i valori SHAP. Il processo di elaborazione SageMaker Clarify supporta l'algoritmo Kernel SHAP. L'oggetto
shapha i parametri riportati di seguito.-
baseline — (Facoltativo) Il set di dati di base SHAP, noto anche come set di dati in background. I requisiti aggiuntivi per il set di dati della baseline in un set di dati tabulare o in un problema di visione artificiale sono i seguenti. Per ulteriori informazioni sulle linee di base SHAP, vedere Linee di base SHAP per la spiegabilità
-
Per un set di dati tabulare,
baselinepuò consistere in dati della baseline locali o l'URI S3 di un file della baseline. Se nonbaselineviene fornito, il processo di elaborazione di SageMaker Clarify calcola una linea di base raggruppando il set di dati di input. Di seguito sono riportati i requisiti per la baseline:-
Il formato deve essere uguale a quello del set di dati specificato da
dataset_type. -
La baseline può contenere solo funzionalità che il modello può accettare come input.
-
Il set di dati della baseline può avere una o più istanze. Il numero di istanze della baseline influisce direttamente sia sulla dimensione del set di dati sintetico che sulla durata del processo.
-
Se
text_configè specificato, il valore della baseline di una colonna di testo è una stringa utilizzata per sostituire l'unità di testo specificata dagranularity. Ad esempio, un segnaposto comune è "[MASK]", che viene utilizzato per rappresentare una parola o una parte di testo mancante o sconosciuta.
Gli esempi seguenti mostrano come impostare dati della baseline locali per diversi parametri
dataset_type:-
Se
dataset_typeètext/csvoapplication/x-parquet, il modello accetta quattro funzionalità numeriche e la baseline ha due istanze. In questo esempio, se un record ha tutti valori di funzionalità zero e l'altro record ha tutti i valori di funzionalità uno, la baseline deve essere impostata su[[0,0,0,0],[1,1,1,1]], senza alcuna intestazione. -
Se
dataset_typeèapplication/jsonlinesefeaturesè la chiave per un elenco di quattro valori di funzionalità numeriche. Inoltre, in questo esempio, se la baseline ha un record di tutti i valori zero, allorabaselinedeve essere[{"features":[0,0,0,0]}]. -
Se
dataset_typeèapplication/json, il set di datibaselinedeve avere la stessa struttura e lo stesso formato del set di dati di input.
-
-
Per problemi di visione artificiale,
baselinepuò essere l'URI S3 di un'immagine utilizzato per mascherare funzionalità (segmenti) dall'immagine di input. Il processo di elaborazione SageMaker Clarify carica l'immagine della maschera e la ridimensiona alla stessa risoluzione dell'immagine di input. Se non viene fornita la linea di base, il processo di elaborazione SageMaker Clarify genera un'immagine maschera di rumore biancocon la stessa risoluzione dell'immagine di input.
-
-
features_to_explain: (facoltativo) una matrice di stringhe o indici a base zero di colonne di funzionalità per cui calcolare i valori SHAP. Se
features_to_explainnon viene fornito, i valori SHAP vengono calcolati per tutte le colonne delle funzionalità. Queste colonne di funzionalità non possono includere la colonna dell'etichetta o la colonna dell'etichetta prevista. Il parametrofeatures_to_explainè supportato solo per set di dati tabulari con colonne numeriche e categoriche. -
num_clusters: (facoltativo) il numero di cluster in cui è suddiviso il set di dati per calcolare il set di dati di base. Ogni cluster viene utilizzato per calcolare un'istanza della baseline. Se non
baselineè specificato, il processo di elaborazione SageMaker Clarify tenta di calcolare il set di dati di base dividendo il set di dati tabulare in un numero ottimale di cluster tra e.112Il numero di istanze della baseline influisce direttamente sull'esecuzione dell'analisi SHAP. -
num_samples: (facoltativo) il numero di campioni da utilizzare nell'algoritmo SHAP del kernel. Se non
num_samplesviene fornito, il processo di elaborazione SageMaker Clarify sceglie il numero automaticamente. Il numero di campioni influisce direttamente sia sulla dimensione del set di dati sintetico che sulla durata del processo. -
seed: (facoltativo) un numero intero utilizzato per inizializzare il generatore di numeri pseudo casuali nell'esplicatore SHAP per generare valori SHAP coerenti per lo stesso lavoro. Se seed non è specificato, ogni volta che viene eseguito lo stesso processo, il modello può generare valori SHAP leggermente diversi.
-
use_logit: (facoltativo) un valore booleano che indica che si desidera che la funzione logit venga applicata alle previsioni del modello. L'impostazione predefinita è
false. Seuse_logitètrue, i valori SHAP vengono calcolati utilizzando i coefficienti di regressione logistica, che possono essere interpretati come rapporti log-odd. -
save_local_shap_values: (facoltativo) un valore booleano che indica che desideri includere i valori SHAP locali di ogni record del set di dati nel risultato dell'analisi. L'impostazione predefinita è
false.Se il set di dati principale è suddiviso in più file o è attivata l'elaborazione distribuita, specifica anche una colonna identificativa utilizzando il parametro
joinsource_name_or_index. La colonna identificativa e i valori SHAP locali vengono salvati nel risultato dell'analisi. In questo modo, è possibile mappare ogni record ai relativi valori SHAP locali. -
agg_method: (facoltativo) il metodo utilizzato per aggregare i valori SHAP locali (i valori SHAP di ogni istanza) di tutte le istanze ai valori SHAP globali (i valori SHAP dell'intero set di dati). L'impostazione predefinita è
mean_abs. I seguenti metodi possono essere utilizzati per aggregare i valori SHAP.-
mean_abs: la media dei valori SHAP locali assoluti di tutte le istanze.
-
mean_sq: la media dei valori SHAP locali quadratici di tutte le istanze.
-
mediana: la mediana dei valori SHAP locali di tutte le istanze.
-
-
text_config — Obbligatorio per la spiegabilità dell'elaborazione del linguaggio naturale. Includi questa configurazione se desideri trattare le colonne di testo come testo e se le spiegazioni dovrebbero essere fornite per le singole unità di testo. Per un esempio di configurazione di analisi per la spiegabilità dell'elaborazione del linguaggio naturale, vedi Configurazione di analisi per la spiegabilità dell'elaborazione del linguaggio naturale
-
granularità: l'unità di granularità per l'analisi delle colonne di testo. I valori validi sono
token,sentenceoparagraph. Ogni unità di testo è considerata una funzionalità e i valori SHAP locali vengono calcolati per ogni unità. -
lingua: la lingua delle colonne di testo. I valori validi sono
chinese,danish,dutch,english,french,german,greek,italian,japanese,lithuanian,multi-language,norwegian bokmål,polish,portuguese,romanian,russian,spanish,afrikaans,albanian,arabic,armenian,basque,bengali,bulgarian,catalan,croatian,czech,estonian,finnish,gujarati,hebrew,hindi,hungarian,icelandic,indonesian,irish,kannada,kyrgyz,latvian,ligurian,luxembourgish,macedonian,malayalam,marathi,nepali,persian,sanskrit,serbian,setswana,sinhala,slovak,slovenian,swedish,tagalog,tamil,tatar,telugu,thai,turkish,ukrainian,urdu,vietnamese,yoruba. Inseriscimulti-languageper una combinare più lingue. -
max_top_tokens: (facoltativo) il numero massimo di token principali, in base ai valori SHAP globali. L'impostazione predefinita è
50. È possibile che un token appaia più volte nel set di dati. Il processo di elaborazione SageMaker Clarify aggrega i valori SHAP di ciascun token, quindi seleziona i token principali in base ai rispettivi valori SHAP globali. I valori SHAP globali dei token principali selezionati sono inclusi nella sezioneglobal_top_shap_textdel file analysis.json. -
Il valore SHAP locale di aggregazione.
-
-
image_config: necessario per la spiegabilità della visione artificiale. Includi questa configurazione se disponi di un set di dati di input composto da immagini e desideri analizzarle per verificarne la spiegabilità in un problema di visione artificiale.
-
model_type: il tipo di modello. I valori validi includono:
-
IMAGE_CLASSIFICATIONdi un modello di classificazione delle immagini -
OBJECT_DETECTIONdi un modello per il rilevamento di oggetti
-
-
max_objects: applicabile solo quando model_type è
OBJECT_DETECTION. Il numero massimo di oggetti, ordinato in base al punteggio di attendibilità, rilevato dal modello di visione artificiale. Tutti gli oggetti con un punteggio di attendibilità inferiore al massimo max_objects vengono filtrati. L'impostazione predefinita è3. -
context: applicabile solo quando model_type è
OBJECT_DETECTION. Indica se l'area intorno al riquadro di delimitazione dell'oggetto rilevato è mascherata o meno dall'immagine di base. I valori validi sono:0per mascherare tutto o1per non mascherare nulla. L'impostazione predefinita è 2. -
iou_threshold: applicabile solo quando
model_typeèOBJECT_DETECTION. Il parametro minimo di intersezione over union (IOU) per valutare le previsioni rispetto al rilevamento originale. Un parametro IOU elevato corrisponde a una grande sovrapposizione tra la casella di rilevamento della verità prevista e della Ground Truth. L'impostazione predefinita è0.5. -
num_segments: (facoltativo) un numero intero che determina il numero approssimativo di segmenti da etichettare nell'immagine di input. Ogni segmento dell'immagine è considerato una funzionalità e per ogni segmento vengono calcolati i valori SHAP locali. L'impostazione predefinita è
20. -
segment_compactness: (facoltativo) un numero intero che determina la forma e la dimensione dei segmenti di immagine generati dal metodo scikit-image slic
. L'impostazione predefinita è 5.
-
-
-
pdp — Include questo metodo per calcolare i grafici di dipendenza parziali (). PDPs Per un esempio di configurazione di analisi da generare, vedere PDPs Calcola i grafici di dipendenza parziale () PDPs
-
funzionalità: obbligatorio se il metodo
shapnon è richiesto. Una matrice di nomi o indici di funzionalità per calcolare e tracciare grafici PDP. -
top_k_features: (facoltativo) specifica il numero di funzionalità principali utilizzate per generare grafici PDP. Se non
featuresviene fornito, ma ilshapmetodo è richiesto, il processo di elaborazione di SageMaker Clarify sceglie le funzionalità principali in base alle relative attribuzioni SHAP. L'impostazione predefinita è10. -
grid_resolution: il numero di bucket in cui dividere l'intervallo di valori numerici. Questo specifica la granularità della griglia per i grafici PDP.
-
-
asymmetric_shapley_value: includete questo metodo se desiderate calcolare metriche di spiegabilità per i modelli di previsione delle serie temporali. Il processo di elaborazione Clarify SageMaker supporta l'algoritmo asimmetrico dei valori Shapley. I valori asimmetrici di Shapley sono una variante del valore di Shapley che elimina l'assioma di simmetria. Per ulteriori informazioni, vedere Valori di Shapley asimmetrici
: incorporazione della conoscenza causale nella spiegabilità indipendente dal modello. Utilizzate questi valori per determinare in che modo le funzionalità contribuiscono al risultato della previsione. I valori asimmetrici di Shapley tengono conto delle dipendenze temporali dei dati delle serie temporali che i modelli di previsione prendono come input. L'algoritmo include i seguenti parametri:
direzione: i tipi disponibili sono
chronologicalanti_chronological, ebidirectional. La struttura temporale può essere navigata in ordine cronologico o anticronologico o entrambi. Le spiegazioni cronologiche vengono create aggiungendo iterativamente informazioni dalla prima fase in poi. Le spiegazioni anticronologiche aggiungono informazioni a partire dall'ultimo passaggio e procedendo a ritroso. Quest'ultimo ordine può essere più appropriato in presenza di tendenze di tendenza al cambio di tendenza, ad esempio per la previsione dei prezzi delle azioni.granularità: la granularità della spiegazione da utilizzare. Le opzioni di granularità disponibili sono mostrate come segue:
in termini di tempo:
timewisele spiegazioni sono poco costose e forniscono informazioni solo su fasi temporali specifiche, ad esempio per capire in che misura le informazioni del giorno del passato hanno contribuito alla previsione del millesimo giorno nel futuro. Le attribuzioni risultanti non spiegano singolarmente le covariate statiche e non fanno distinzione tra target e serie temporali correlate.fine_grained:
fine_grainedle spiegazioni sono computazionalmente più impegnative ma forniscono una suddivisione completa di tutte le attribuzioni delle variabili di input. Il metodo calcola spiegazioni approssimative per ridurre il tempo di esecuzione. Per ulteriori informazioni, vedere il seguente parametro.num_samplesNota
fine_grainedle spiegazioni supportano solo l'chronologicalordine.
num_samples — (Facoltativo) Questo argomento è obbligatorio per le spiegazioni.
fine_grainedPiù alto è il numero, più precisa è l'approssimazione. Questo numero deve adattarsi alla dimensionalità delle feature di input. Una regola pratica consiste nell'impostare questa variabile su (1 + max (numero di serie temporali correlate, numero di covariate statiche)) ^2 se il risultato non è troppo grande.baseline — (Facoltativo) La configurazione di base per sostituire out-of-coalition i valori per i set di dati corrispondenti (nota anche come dati di sfondo). Il frammento seguente mostra un esempio di configurazione di base:
{ "related_time_series": "zero", "static_covariates": {<item_id_1>: [0, 2],<item_id_2>: [-1, 1] }, "target_time_series": "zero" }Per i dati temporali come le serie temporali di destinazione o le serie temporali correlate, i tipi di valori di base possono essere uno dei seguenti valori:
zero— Tutti i out-of-coalition valori vengono sostituiti con 0,0.mean— Tutti i out-of-coalition valori vengono sostituiti con la media di una serie temporale.
Per le covariate statiche, è necessario fornire una voce di base solo quando la richiesta del modello accetta valori di covariate statici, nel qual caso questo campo è obbligatorio. La linea di base deve essere fornita per ogni elemento sotto forma di elenco. Ad esempio, se si dispone di un set di dati con due covariate statiche, la configurazione di base potrebbe essere la seguente:
"static_covariates": {<item_id_1>: [1, 1],<item_id_2>: [0, 1] }Nell'esempio precedente,
<item_id_1>e<item_id_2>sono gli id degli elementi del set di dati.
-
report: (facoltativo) utilizza questo oggetto per personalizzare il report di analisi. Questo parametro non è supportato per i lavori di spiegazione delle serie temporali. Ci sono tre copie dello stesso report come parte del risultato dell'analisi: report Jupyter Notebook, report HTML e report PDF. L'oggetto ha i seguenti parametri:
-
name: nome del file di report. Ad esempio, se
nameèMyReport, allora i file di report sonoMyReport.ipynb,MyReport.html, eMyReport.pdf. L'impostazione predefinita èreport. -
title: (facoltativo) stringa del titolo del report. L'impostazione predefinita è
SageMaker AI Analysis Report.
-
-
-
predittore: obbligatorio se l'analisi richiede previsioni dal modello. Ad esempio, quando viene richiesto il
post_training_biasmetodoshapasymmetric_shapley_valuepdp,, o, ma le etichette previste non vengono fornite come parte del set di dati di input. Di seguito sono riportati i parametri da utilizzare insieme apredictor:-
model_name: il nome del modello di SageMaker intelligenza artificiale creato dall'API. CreateModel Se specificate
model_nameal posto di endpoint_name, il processo di elaborazione di SageMaker Clarify crea un endpoint temporaneo con il nome del modello, noto come endpoint ombra, e ottiene le previsioni dall'endpoint. Il processo elimina l'endpoint shadow dopo aver completato i calcoli. Se il modello è multimodello, è necessario specificare il parametro.target_modelPer ulteriori informazioni sugli endpoint multimodello, vedere. Endpoint multi-modello -
endpoint_name_prefix: (facoltativo) un prefisso di nome personalizzato per l'endpoint shadow. Applicabile se fornisci
model_nameinvece diendpoint_name. Ad esempio, fornisciendpoint_name_prefixse desideri limitare l'accesso all'endpoint in base al nome dell'endpoint. Il prefisso deve corrispondere al EndpointNamemodello e la sua lunghezza massima è.23L'impostazione predefinita èsm-clarify. -
initial_instance_count: specifica il numero di istanze dell'endpoint shadow. Obbligatorio se fornisci model_name anziché endpoint_name. Il valore di
initial_instance_countpuò essere diverso da quello InstanceCountdel lavoro, ma consigliamo un rapporto 1:1. -
instance_type: specifica il tipo di istanza dell'endpoint shadow. Obbligatorio se fornisci
model_nameinvece diendpoint_name. Ad esempio,instance_typepuò essere impostato su "ml.m5.large". In alcuni casi, il valore specificato perinstance_typepuò aiutare a ridurre il tempo di inferenza del modello. Ad esempio, per funzionare in modo efficiente, i modelli di elaborazione del linguaggio naturale e i modelli di visione artificiale richiedono in genere un tipo di istanza GPU (Graphics Processing Unit). -
endpoint_name: il nome del tuo endpoint SageMaker AI creato dall'API. CreateEndpoint Se fornito,
endpoint_nameha la precedenza sul parametromodel_name. L'utilizzo di un endpoint esistente riduce il tempo di bootstrap dell'endpoint shadow, ma può anche causare un aumento significativo del carico per quell'endpoint. Inoltre, alcuni metodi di analisi (comeshapepdp) generano set di dati sintetici che vengono inviati all'endpoint. Ciò può far sì che i parametri o i dati acquisiti dell'endpoint vengano contaminati da dati sintetici, che potrebbero non riflettere accuratamente l'utilizzo nel mondo reale. Per questi motivi, in genere non è consigliabile utilizzare un endpoint di produzione esistente per l'analisi di Clarify. SageMaker -
target_model — Il valore della stringa che viene passato al TargetModel parametro dell'API AI. SageMaker InvokeEndpoint Necessario se il modello (specificato dal parametro model_name) o l'endpoint (specificato dal parametro endpoint_name) sono multi-modello. Per ulteriori informazioni sugli endpoint multimodello, consulta. Endpoint multi-modello
-
custom_attributes: (facoltativo) una stringa che consente di fornire informazioni aggiuntive su una richiesta di inferenza inviata all'endpoint. Il valore della stringa viene passato al
CustomAttributesparametro dell' SageMaker API AI InvokeEndpoint. -
content_type: il formato di input del modello da utilizzare per ottenere previsioni dall'endpoint. Se fornito, viene passato al
ContentTypeparametro dell'InvokeEndpointAPI SageMaker AI.-
Per la spiegabilità della visione artificiale, i valori validi sono
image/jpeg,image/pngoapplication/x-npy. Secontent_typenon viene specificato, il valore predefinito èimage/jpeg. Per la spiegabilità della previsione delle serie temporali, il valore valido è.
application/json-
Per altri tipi di spiegabilità, i valori validi sono
text/csv,application/jsonlines,eapplication/json.content_typeÈ richiesto un valore per se è.dataset_typeapplication/x-parquetAltrimenti, il valore predefinito dicontent_typeè quello del parametrodataset_type.
-
-
accept_type: il formato di output del modello da utilizzare per ottenere previsioni dall'endpoint. Il valore per
accept_typeviene passato alAcceptparametro dell'InvokeEndpointAPI SageMaker AI.-
Per la spiegabilità della visione artificiale, se
model_typeè "OBJECT_DETECTION", il valore predefinito diaccept_typeèapplication/json. Per la spiegabilità della previsione delle serie temporali, il valore valido è.
application/json-
Per altri tipi di spiegabilità, i valori validi sono
text/csv,application/jsonlineseapplication/json. Se non viene fornito un valore peraccept_type, il valore predefinito diaccept_typeè il valore del parametrocontent_type.
-
-
content_template: una stringa modello utilizzata per costruire l'input del modello dai record del set di dati. Il parametro
content_templateviene utilizzato e richiesto solo se il valore del parametrocontent_typeèapplication/jsonlinesoapplication/jsonQuando il parametro
content_typeèapplication/jsonlines, la stringa modello deve avere un solo segnaposto,$features, che viene sostituito dall'elenco delle funzionalità in fase di runtime. Ad esempio, se la stringa modello è"{\"myfeatures\":$features}"e se un record ha tre valori di funzionalità numeriche:1,2e3, il record verrà inviato al modello come{"myfeatures":[1,2,3]}JSON Line.Quando
content_typeèapplication/json, la stringa modello può avere un segnaposto$recordorecords. Se il segnaposto èrecord, un singolo record viene sostituito con un record a cui è applicata la stringa modello inrecord_template. In questo caso, al modello verrà inviato un solo record alla volta. Se il segnaposto è$records, i record vengono sostituiti da un elenco di record, ciascuno con una stringa modello fornita darecord_template. -
record_template: una stringa modello da utilizzare per costruire ogni record dell'input del modello dalle istanze del set di dati. Viene utilizzato e richiesto solo quando
content_typeèapplication/jsonLa stringa modello può contenere:-
Un segnaposto parametro
$featuresche viene sostituito da una matrice di valori di funzionalità. Un segnaposto opzionale aggiuntivo può sostituire i nomi delle intestazioni delle colonne di funzionalità in$feature_names. Questo segnaposto opzionale verrà sostituito da una serie di nomi di funzionalità. -
Esattamente un segnaposto
$features_kvpche viene sostituito da coppie chiave-valore, nome e valore della funzionalità. -
Una funzionalità nella configurazione
headers. Ad esempio, il nome di una funzionalitàA, annotato dalla sintassi del segnaposto"${A}"verrà sostituito dal valore della funzionalità diA.
Il valore di
record_templateviene utilizzato concontent_templateper costruire l'input del modello. Segue un esempio di configurazione che mostra come costruire un input del modello utilizzando contenuti e record modello.Nel seguente esempio di codice, le intestazioni e le funzionalità sono definite come segue.
-
`headers`:["A", "B"] -
`features`:[[0,1], [3,4]]
L'input del modello di esempio è:
{ "instances": [[0, 1], [3, 4]], "feature_names": ["A", "B"] }Di seguito sono riportati come esempio i valori dei parametri
content_templateerecord_template, per costruire l'input del modello dell'esempio precedente.-
content_template: "{\"instances\": $records, \"feature_names\": $feature_names}" -
record_template: "$features"
Nel seguente esempio di codice, le intestazioni e le funzionalità sono definite come segue.
[ { "A": 0, "B": 1 }, { "A": 3, "B": 4 }, ]Di seguito sono riportati come esempio i valori dei parametri
content_templateerecord_template, per costruire l'input del modello dell'esempio precedente.-
content_template: "$records" -
record_template: "$features_kvp"
Segue un esempio di codice alternativo per costruire l'input del modello dell'esempio precedente.
-
content_template: "$records" -
record_template: "{\"A\": \"${A}\", \"B\": \"${B}\"}"
Nel seguente esempio di codice, le intestazioni e le funzionalità sono definite come segue.
{ "A": 0, "B": 1 }I valori dei parametri content_template e record_template di esempio da costruire sopra: segue l'input del modello di esempio precedente.
-
content_template: "$record" -
record_template: "$features_kvp"
Per ulteriori esempi, consulta Richieste endpoint per dati di serie temporali.
-
-
label — (Facoltativo) Un indice intero o una stringa di JMESPath espressione a base zero utilizzata per estrarre le etichette previste dall'output del modello per l'analisi delle distorsioni. Se il modello è multiclasse e il parametro
labelestrae tutte le etichette previste dall'output del modello, si applica quanto segue. Questa funzionalità non è supportata per le serie temporali.-
Il parametro
probabilityè necessario per ottenere le probabilità (o i punteggi) corrispondenti dall'output del modello. -
Viene scelta l'etichetta prevista del punteggio più alto.
Il valore di
labelviene specificato in base al valore del parametro accept_type, come segue.-
Se
accept_typeètext/csv, alloralabelè l'indice di tutte le etichette previste nell'output del modello. -
Se
accept_typeèapplication/jsonlinesoapplication/json, alloralabelè un' JMESPath espressione che viene applicata all'output del modello per ottenere le etichette previste.
-
-
label_headers — (Facoltativo) Una matrice di valori che l'etichetta può assumere nel set di dati. Se viene richiesta l'analisi del bias, il parametro
probabilityè necessario anche per ottenere i valori di probabilità (punteggi) corrispondenti dall'output del modello e viene scelta l'etichetta prevista del punteggio più alto. Se viene richiesta l'analisi della spiegabilità, le intestazioni delle etichette vengono utilizzate per abbellire il report di analisi. È richiesto un valore dilabel_headers, per la spiegabilità della visione artificiale. Ad esempio, per un problema di classificazione multiclasse, se l'etichetta ha tre valori possibili,bird,catedog, alloralabel_headersdeve essere impostato su["bird","cat","dog"]. -
probabilità — (Facoltativo) Un indice intero a base zero o una stringa di JMESPath espressione utilizzata per estrarre le probabilità (punteggi) per l'analisi della spiegabilità (ma non per la spiegabilità delle serie temporali) o per scegliere l'etichetta prevista per l'analisi delle distorsioni. Il valore di
probabilityviene specificato in base al valore del parametroaccept_type, come segue.-
Se
accept_typeètext/csv,probabilityè l'indice delle probabilità (punteggi) nell'output del modello. Seprobabilitynon viene fornito, l'intero output del modello viene considerato come probabilità (punteggi). -
Se si
accept_typetratta di dati JSON (unoapplication/jsonlineso piùapplication/json),probabilitydovrebbe essere un' JMESPathespressione utilizzata per estrarre le probabilità (punteggi) dall'output del modello.
-
-
time_series_predictor_config — (Facoltativo) Utilizzato solo per la spiegabilità delle serie temporali. Utilizzato per indicare al processore SageMaker Clarify come analizzare correttamente i dati a partire dai dati passati come URI S3 in.
dataset_uriprevisione: JMESPath espressione utilizzata per estrarre il risultato della previsione.
-
File di configurazione dell'analisi di esempio
Le sezioni seguenti contengono esempi di file di configurazione dell'analisi per dati in formato CSV, formato JSON Lines e per la spiegabilità dell'elaborazione del linguaggio naturale (NLP), della visione artificiale (CV) e delle serie temporali (TS).
I seguenti esempi mostrano come configurare l'analisi del bias della spiegabilità per un set di dati tabulare in formato CSV. In questi esempi, il set di dati in entrata ha quattro colonne di funzionalità e una colonna di etichette binarie, Target. Il contenuto del set di dati è il seguente. Un valore di etichetta pari a 1 indica un risultato positivo. Il set di dati viene fornito al job Clarify tramite l'input di elaborazione. SageMaker dataset
"Target","Age","Gender","Income","Occupation" 0,25,0,2850,2 1,36,0,6585,0 1,22,1,1759,1 0,48,0,3446,1 ...
Le sezioni seguenti mostrano come calcolare le metriche di distorsione prima e dopo l'allenamento, i valori SHAP e i grafici delle dipendenze parziali (PDPs) che mostrano l'importanza delle funzionalità per un set di dati in formato CSV.
Calcola tutti i parametri di bias pre-addestramento
Questa configurazione di esempio mostra come misurare se il set di dati del campione precedente è orientato favorevolmente verso campioni con un valore Gender di 0. La seguente configurazione di analisi indica al processo di elaborazione di SageMaker Clarify di calcolare tutte le metriche di distorsione pre-allenamento per il set di dati.
{ "dataset_type": "text/csv", "label": "Target", "label_values_or_threshold": [1], "facet": [ { "name_or_index": "Gender", "value_or_threshold": [0] } ], "methods": { "pre_training_bias": { "methods": "all" } } }
Calcola tutti i parametri di bias post-addestramento
Puoi calcolare i parametri di bias pre-addestramento prima dell'addestramento. Tuttavia, è necessario disporre di un modello addestrato per calcolare i parametri di bias post-addestramento. L'output di esempio seguente proviene da un modello di classificazione binaria che genera dati in formato CSV. In questo output di esempio, ogni riga contiene due colonne. La prima colonna contiene l'etichetta prevista e la seconda colonna contiene il valore di probabilità per quell'etichetta.
0,0.028986845165491 1,0.825382471084594 ...
Il seguente esempio di configurazione indica al processo di elaborazione SageMaker Clarify di calcolare tutte le possibili metriche di distorsione utilizzando il set di dati e le previsioni dall'output del modello. Nell'esempio, il modello viene distribuito su un endpoint AI. SageMaker your_endpoint
Nota
Nell'esempio di codice seguente, i parametri content_type e accept_type non sono impostati. Pertanto, utilizzano automaticamente il valore del parametro dataset_type, che è text/csv.
{ "dataset_type": "text/csv", "label": "Target", "label_values_or_threshold":[1], "facet": [ { "name_or_index": "Gender", "value_or_threshold":[0]} ], "methods": { "pre_training_bias": { "methods": "all" }, "post_training_bias": { "methods": "all" } }, "predictor": { "endpoint_name": "your_endpoint", "label":0} }
Calcola i valori SHAP
Il seguente esempio di configurazione di analisi indica al processo di calcolare i valori SHAP, designando la colonna Target come etichette e tutte le altre colonne come funzionalità.
{ "dataset_type": "text/csv", "label": "Target", "methods": { "shap": { "num_clusters":1} }, "predictor": { "endpoint_name": "your_endpoint", "probability":1} }
In questo esempio, il parametro SHAP baseline è omesso e il valore del parametro num_clusters è 1. Questo indica al processore SageMaker Clarify di calcolare un campione di base SHAP. In questo esempio, la probabilità è impostata su 1. Ciò indica al processo di elaborazione SageMaker Clarify di estrarre il punteggio di probabilità dalla seconda colonna dell'output del modello (utilizzando l'indicizzazione a base zero).
Calcola i grafici di dipendenza parziale () PDPs
L'esempio seguente mostra come visualizzare l'importanza della Income feature nel report di analisi utilizzando. PDPs Il parametro report indica al processo di elaborazione di SageMaker Clarify di generare un report. Una volta completato il processo, il report generato viene salvato come report.pdf nella posizione analysis_result. Il parametro grid_resolution divide l'intervallo dei valori della funzionalità in bucket 10. Insieme, i parametri specificati nell'esempio seguente indicano al processo di elaborazione SageMaker Clarify di generare un report contenente un grafico PDP per Income i segmenti sull'asse x. 10 L'asse y mostrerà l'impatto marginale di Income sulle predizioni.
{ "dataset_type": "text/csv", "label": "Target", "methods": { "pdp": { "features": ["Income"], "grid_resolution":10}, "report": { "name": "report" } }, "predictor": { "endpoint_name": "your_endpoint", "probability":1}, }
Calcola sia i parametri di bias che l'importanza delle funzionalità
È possibile combinare tutti i metodi degli esempi di configurazione precedenti in un unico file di configurazione di analisi e calcolarli tutti con un unico processo. L'esempio seguente mostra una configurazione di analisi con tutte le fasi combinate.
In questo esempio, il parametro probability è impostato su 1 per indicare che le probabilità sono contenute nella seconda colonna (utilizzando l'indicizzazione a base zero). Tuttavia, poiché l'analisi delle distorsioni richiede un'etichetta prevista, il parametro probability_threshold è impostato su 0.5 per convertire il punteggio di probabilità in un'etichetta binaria. In questo esempio, il parametro top_k_features del metodo pdp dei grafici di dipendenza parziale è impostato su 2. Ciò consente al processo di elaborazione di SageMaker Clarify di calcolare i grafici di dipendenza parziali (PDPs) per le funzionalità principali con i valori SHAP globali più elevati. 2
{ "dataset_type": "text/csv", "label": "Target", "probability_threshold":0.5, "label_values_or_threshold": [1], "facet": [ { "name_or_index": "Gender", "value_or_threshold": [0] } ], "methods": { "pre_training_bias": { "methods": "all" }, "post_training_bias": { "methods": "all" }, "shap": { "num_clusters":1}, "pdp": { "top_k_features":2, "grid_resolution":10}, "report": { "name": "report" } }, "predictor": { "endpoint_name": "your_endpoint", "probability":1} }
Invece di distribuire il modello su un endpoint, è possibile fornire il nome del modello di SageMaker intelligenza artificiale al processo di elaborazione Clarify utilizzando il parametro. SageMaker model_name Il seguente esempio mostra come specificare un modello denominato your_model. Il processo di elaborazione SageMaker Clarify creerà un endpoint shadow utilizzando la configurazione.
{ ... "predictor": { "model_name": "your_model", "initial_instance_count":1, "instance_type": "ml.m5.large", "probability":1} }
I seguenti esempi mostrano come configurare l'analisi del bias e l'analisi della spiegabilità per un set di dati tabulare in formato JSON Lines. In questi esempi, il set di dati in entrata contiene gli stessi dati della sezione precedente, ma sono nel formato denso SageMaker AI JSON Lines. Ogni riga è un oggetto JSON valido. La chiave "Features" si riferisce a una serie di valori di funzionalità e la chiave "Label" si riferisce all'etichetta Ground Truth. Il set di dati viene fornito al job SageMaker Clarify dall'input di elaborazione «dataset». Per ulteriori informazioni su righe JSON, consultare Formato di richiesta JSONLINES.
{"Features":[25,0,2850,2],"Label":0} {"Features":[36,0,6585,0],"Label":1} {"Features":[22,1,1759,1],"Label":1} {"Features":[48,0,3446,1],"Label":0} ...
Le sezioni seguenti mostrano come calcolare le metriche di distorsione prima e dopo l'allenamento, i valori SHAP e i grafici di dipendenza parziale (PDPs) che mostrano l'importanza delle funzionalità per un set di dati in formato JSON Lines.
Calcola i parametri di bias pre-addestramento
Specifica l'etichetta, le funzionalità, il formato e i metodi per misurare i parametri di bias pre-addestramento per un valore Gender di 0. Nell'esempio seguente, il parametro headers fornisce innanzitutto i nomi delle funzionalità. Il nome dell'etichetta viene fornito per ultimo. Per convenzione, l'ultima intestazione è quella dell'etichetta.
Il features parametro è impostato sull' JMESPath espressione «Features» in modo che il processo di elaborazione di SageMaker Clarify possa estrarre la serie di funzionalità da ogni record. Il label parametro è impostato sull' JMESPath espressione «Label» in modo che il processo di elaborazione di SageMaker Clarify possa estrarre l'etichetta di verità fondamentale da ogni record. Utilizza un nome di facet per specificare l'attributo sensibile, come segue.
{ "dataset_type": "application/jsonlines", "headers": ["Age","Gender","Income","Occupation","Target"], "label": "Label", "features": "Features", "label_values_or_threshold": [1], "facet": [ { "name_or_index": "Gender", "value_or_threshold": [0] } ], "methods": { "pre_training_bias": { "methods": "all" } } }
Calcola tutti i parametri di bias
È necessario disporre di un modello esperto per calcolare i parametri di bias post-addestramento. L'esempio seguente proviene da un modello di classificazione binaria che genera dati JSON Lines nel formato dell'esempio. Ogni riga dell'output del modello è un oggetto JSON valido. La predicted_label chiave si riferisce all'etichetta prevista e la probability chiave si riferisce al valore di probabilità.
{"predicted_label":0,"probability":0.028986845165491} {"predicted_label":1,"probability":0.825382471084594} ...
È possibile distribuire il modello su un endpoint SageMaker AI denominato. your_endpoint Il seguente esempio di configurazione di analisi indica al processo di elaborazione di SageMaker Clarify di calcolare tutte le possibili metriche di distorsione sia per il set di dati che per il modello. In questo esempio, i parametri content_type e accept_type non sono impostati. Pertanto, utilizzano automaticamente il valore del parametro dataset_type, che è application/jsonlines. Il processo di elaborazione SageMaker Clarify utilizza il content_template parametro per comporre l'input del modello, sostituendo il segnaposto con una serie di funzionalità. $features
{ "dataset_type": "application/jsonlines", "headers": ["Age","Gender","Income","Occupation","Target"], "label": "Label", "features": "Features", "label_values_or_threshold": [1], "facet": [ { "name_or_index": "Gender", "value_or_threshold": [0] } ], "methods": { "pre_training_bias": { "methods": "all" }, "post_training_bias": { "methods": "all" } }, "predictor": { "endpoint_name": "your_endpoint", "content_template": "{\"Features\":$features}", "label": "predicted_label" } }
Calcola i valori SHAP
Poiché l'analisi SHAP non necessita di un'etichetta Ground Truth, il parametro label viene omesso. In questo esempio, anche il parametro headers è omesso. Pertanto, il processo di elaborazione SageMaker Clarify deve generare segnaposti utilizzando nomi generici come column_0 o column_1 per le intestazioni delle funzionalità e per l'intestazione di un'etichetta. label0 È possibile specificare i valori per headers e label, in modo da migliorare la leggibilità del risultato dell'analisi. Poiché il parametro di probabilità è impostato su JMESPath espressioneprobability, il valore di probabilità verrà estratto dall'output del modello. Di seguito è riportato un esempio per calcolare i valori SHAP.
{ "dataset_type": "application/jsonlines", "features": "Features", "methods": { "shap": { "num_clusters": 1 } }, "predictor": { "endpoint_name": "your_endpoint", "content_template": "{\"Features\":$features}", "probability": "probability" } }
Calcola i grafici di dipendenza parziali () PDPs
L'esempio seguente mostra come visualizzare l'importanza di "Income" nel PDP. In questo esempio, le intestazioni delle funzionalità non vengono fornite. Pertanto, il parametro features del metodo pdp deve utilizzare un indice a base zero per fare riferimento alla posizione della colonna di funzionalità. Il parametro grid_resolution divide l'intervallo dei valori della funzionalità in bucket 10. Insieme, i parametri dell'esempio indicano al processo di elaborazione SageMaker Clarify di generare un report contenente un grafico PDP per i segmenti sull'asse x. Income 10 L'asse y mostrerà l'impatto marginale di Income sulle predizioni.
{ "dataset_type": "application/jsonlines", "features": "Features", "methods": { "pdp": { "features": [2], "grid_resolution":10}, "report": { "name": "report" } }, "predictor": { "endpoint_name": "your_endpoint", "content_template": "{\"Features\":$features}", "probability": "probability" } }
Calcola sia i parametri di bias che l'importanza delle funzionalità
È possibile combinare tutti i metodi precedenti in un unico file di configurazione di analisi e calcolarli tutti con un unico processo. L'esempio seguente mostra una configurazione di analisi con tutte le fasi combinate. In questo esempio, il parametro probability è impostato. Tuttavia, poiché l'analisi dei bias richiede un'etichetta prevista, il parametro probability_threshold è impostato su 0.5 per convertire il punteggio di probabilità in un'etichetta binaria. In questo esempio, il parametro top_k_features del metodo pdp è impostato su 2. Ciò indica al processo di elaborazione SageMaker Clarify di calcolare le funzionalità principali 2 con i valori SHAP PDPs globali più elevati.
{ "dataset_type": "application/jsonlines", "headers": ["Age","Gender","Income","Occupation","Target"], "label": "Label", "features": "Features", "probability_threshold":0.5, "label_values_or_threshold": [1], "facet": [ { "name_or_index": "Gender", "value_or_threshold": [0] } ], "methods": { "pre_training_bias": { "methods": "all" }, "post_training_bias": { "methods": "all" }, "shap": { "num_clusters":1}, "pdp": { "top_k_features":2, "grid_resolution":10}, "report": { "name": "report" } }, "predictor": { "endpoint_name": "your_endpoint", "content_template": "{\"Features\":$features}", "probability": "probability" } }
I seguenti esempi mostrano come configurare l'analisi del bias della spiegabilità per un set di dati tabulare in formato JSON. In questi esempi, il set di dati in entrata contiene gli stessi dati della sezione precedente, ma sono nel formato denso AI JSON. SageMaker Per ulteriori informazioni su righe JSON, consultare Formato di richiesta JSONLINES.
L'intera richiesta di input ha una sintassi JSON valida, dove la struttura esterna è un elenco e ogni elemento è il dato di un record. All'interno di ogni record, la chiave Features si riferisce a una serie di valori di funzionalità e la chiave Label si riferisce all'etichetta Ground Truth. Il set di dati viene fornito al job SageMaker Clarify tramite l'input di elaborazione. dataset
[ {"Features":[25,0,2850,2],"Label":0}, {"Features":[36,0,6585,0],"Label":1}, {"Features":[22,1,1759,1],"Label":1}, {"Features":[48,0,3446,1],"Label":0}, ... ]
Le sezioni seguenti mostrano come calcolare le metriche di distorsione prima e dopo l'allenamento, i valori SHAP e i grafici delle dipendenze parziali (PDPs) che mostrano l'importanza delle funzionalità per un set di dati in formato JSON Lines.
Calcola i parametri di bias pre-addestramento
Specifica l'etichetta, le funzionalità, il formato e i metodi per misurare i parametri di bias pre-addestramento per un valore Gender di 0. Nell'esempio seguente, il parametro headers fornisce innanzitutto i nomi delle funzionalità. Il nome dell'etichetta viene fornito per ultimo. Nei set di dati JSON, l'ultima intestazione è quella di etichetta.
Il features parametro è impostato sull'espressione che estrae una matrice o una matrice 2D. JMESPath Ogni riga di questa matrice deve contenere l'elenco di Features in ogni record. Il label parametro è impostato su JMESPath un'espressione che estrae un elenco di etichette di verità di base. Ogni elemento di questo elenco deve contenere l'etichetta di un record.
Utilizza un nome di facet per specificare l'attributo sensibile, come segue.
{ "dataset_type": "application/json", "headers": ["Age","Gender","Income","Occupation","Target"], "label": "[*].Label", "features": "[*].Features", "label_values_or_threshold": [1], "facet": [ { "name_or_index": "Gender", "value_or_threshold": [0] } ], "methods": { "pre_training_bias": { "methods": "all" } } }
Calcola tutti i parametri di bias
È necessario disporre di un modello addestrato per calcolare i parametri di bias post-addestramento. Il seguente esempio di codice proviene da un modello di classificazione binaria che genera dati JSON nel formato dell'esempio. Nell'esempio, ogni elemento sotto predictions è l'output di previsione per un record. L'esempio di codice contiene la chiave predicted_label, che si riferisce all'etichetta prevista, e la chiave probability, che si riferisce al valore di probabilità.
{ "predictions": [ {"predicted_label":0,"probability":0.028986845165491}, {"predicted_label":1,"probability":0.825382471084594}, ... ] }
È possibile distribuire il modello su un endpoint SageMaker AI denominato. your_endpoint
Nel seguente esempio, i parametri content_type e accept_type non sono impostati. Pertanto, content_type e accept_type vengono impostati automaticamente sul valore del parametro dataset_type, che è application/json. Il processo di elaborazione di SageMaker Clarify utilizza quindi il content_template parametro per comporre l'input del modello.
Nell'esempio seguente, l'input del modello è composto sostituendo il segnaposto $records con una matrice di record. Quindi, il parametro record_template compone la struttura JSON di ogni record e sostituisce il segnaposto $features con la matrice di funzionalità di ogni record.
Il seguente esempio di configurazione di analisi indica al processo di elaborazione SageMaker Clarify di calcolare tutte le possibili metriche di distorsione sia per il set di dati che per il modello.
{ "dataset_type": "application/json", "headers": ["Age","Gender","Income","Occupation","Target"], "label": "[*].Label", "features": "[*].Features", "label_values_or_threshold": [1], "facet": [ { "name_or_index": "Gender", "value_or_threshold": [0] } ], "methods": { "pre_training_bias": { "methods": "all" }, "post_training_bias": { "methods": "all" } }, "predictor": { "endpoint_name": "your_endpoint", "content_template": "$records", "record_template": "{\"Features\":$features}", "label": "predictions[*].predicted_label" } }
Calcola i valori SHAP
Non è necessario specificare un'etichetta per l'analisi SHAP. Nel seguente esempio, il parametro headers non è impostato. Pertanto, il processo di elaborazione SageMaker Clarify genererà segnaposti utilizzando nomi generici come column_0 o column_1 per le intestazioni delle funzionalità e per l'intestazione di un'etichetta. label0 È possibile specificare i valori per headers e label, in modo da migliorare la leggibilità del risultato dell'analisi.
Nel seguente esempio di configurazione, il parametro di probabilità è impostato su un' JMESPath espressione che estrae le probabilità da ogni previsione per ogni record. Di seguito è riportato un esempio per calcolare i valori SHAP.
{ "dataset_type": "application/json", "features": "[*].Features", "methods": { "shap": { "num_clusters": 1 } }, "predictor": { "endpoint_name": "your_endpoint", "content_template": "$records", "record_template": "{\"Features\":$features}", "probability": "predictions[*].probability" } }
Calcola i grafici di dipendenza parziale () PDPs
L'esempio seguente mostra come visualizzare l'importanza di una funzionalità in. PDPs Nell'esempio, le intestazioni delle funzionalità non vengono fornite. Pertanto, il parametro features del metodo pdp deve utilizzare un indice a base zero per fare riferimento alla posizione della colonna di funzionalità. Il parametro grid_resolution divide l'intervallo dei valori della funzionalità in bucket 10.
Insieme, i parametri dell'esempio seguente indicano al processo di elaborazione SageMaker Clarify di generare un report contenente un grafico PDP per i 10 segmenti sull'Incomeasse x. L'asse y mostra l'impatto marginale di Income sulle predizioni.
Il seguente esempio di configurazione mostra come visualizzare l'importanza di on. Income PDPs
{ "dataset_type": "application/json", "features": "[*].Features", "methods": { "pdp": { "features": [2], "grid_resolution": 10 }, "report": { "name": "report" } }, "predictor": { "endpoint_name": "your_endpoint", "content_template": "$records", "record_template": "{\"Features\":$features}", "probability": "predictions[*].probability" } }
Calcola sia i parametri di bias che l'importanza delle funzionalità
Puoi combinare tutti i metodi di configurazione precedenti in un unico file di configurazione dell'analisi e calcolarli tutti in un unico processo. L'esempio seguente mostra una configurazione di analisi con tutte le fasi combinate.
In questo esempio, il parametro probability è impostato. Poiché l'analisi dei bias richiede un'etichetta prevista, il parametro probability_threshold viene impostato su 0.5, che viene utilizzato per convertire il punteggio di probabilità in un'etichetta binaria. In questo esempio, il parametro top_k_features del metodo pdp è impostato su 2. Questo indica al processo di elaborazione di SageMaker Clarify di calcolare le 2 funzionalità principali con PDPs i valori SHAP globali più elevati.
{ "dataset_type": "application/json", "headers": ["Age","Gender","Income","Occupation","Target"], "label": "[*].Label", "features": "[*].Features", "probability_threshold": 0.5, "label_values_or_threshold": [1], "facet": [ { "name_or_index": "Gender", "value_or_threshold": [0] } ], "methods": { "pre_training_bias": { "methods": "all" }, "post_training_bias": { "methods": "all" }, "shap": { "num_clusters": 1 }, "pdp": { "top_k_features": 2, "grid_resolution": 10 }, "report": { "name": "report" } }, "predictor": { "endpoint_name": "your_endpoint", "content_template": "$records", "record_template": "{\"Features\":$features}", "probability": "predictions[*].probability" } }
L'esempio seguente mostra un file di configurazione di analisi per il calcolo dell'importanza della funzionalità per l'elaborazione del linguaggio naturale (NLP). In questo esempio, il set di dati in entrata è un set di dati tabulare in formato CSV, con una colonna dell'etichetta binaria e due colonne di funzionalità, come mostrato in seguito. Il set di dati viene fornito al job SageMaker Clarify dal parametro di input di elaborazione. dataset
0,2,"They taste gross" 1,3,"Flavor needs work" 1,5,"Taste is awful" 0,1,"The worst" ...
In questo esempio, un modello di classificazione binaria è stato addestrato sul precedente set di dati. Il modello accetta dati CSV e restituisce un singolo punteggio compreso tra 0 e 1, come mostrato in seguito.
0.491656005382537 0.569582343101501 ...
Il modello viene utilizzato per creare un modello di SageMaker intelligenza artificiale denominato «your_model». La seguente configurazione di analisi mostra come eseguire un'analisi di spiegabilità basata su token utilizzando il modello e il set di dati. Il parametro text_config attiva l'analisi della spiegabilità dell'elabroazione del linguaggio naturale. Il parametro granularity indica che l'analisi deve analizzare i token.
In inglese, ogni token è una parola. L'esempio seguente mostra anche come fornire un'istanza SHAP locale di base utilizzando una valutazione media di 4. Uno speciale token maschera "[MASK]" viene utilizzato per sostituire un token (parola) in "Commenti". Questo esempio utilizza anche un tipo di istanza di endpoint GPU per accelerare l'inferenza.
{ "dataset_type": "text/csv", "headers": ["Target","Rating","Comments"] "label": "Target", "methods": { "shap": { "text_config": { "granularity": "token", "language": "english" } "baseline": [[4,"[MASK]"]], } }, "predictor": { "model_name": "your_nlp_model", "initial_instance_count":1, "instance_type": "ml.g4dn.xlarge" } }
L'esempio seguente mostra un file di configurazione di analisi per il calcolo dell'importanza della funzionalità per la visione artificiale. In questo esempio, il set di dati di input è costituito da immagini JPEG. Il set di dati viene fornito al job SageMaker Clarify dal parametro di input di elaborazione. dataset L'esempio mostra come configurare un'analisi di spiegabilità utilizzando un SageMaker modello di classificazione delle immagini. In questo esempio, un modello denominato your_cv_ic_model è stato addestrato a classificare gli animali nelle immagini JPEG di input.
{ "dataset_type": "application/x-image", "methods": { "shap": { "image_config": { "model_type": "IMAGE_CLASSIFICATION", "num_segments":20, "segment_compactness":10} }, "report": { "name": "report" } }, "predictor": { "model_name": "your_cv_ic_model", "initial_instance_count":1, "instance_type": "ml.p2.xlarge", "label_headers": ["bird","cat","dog"] } }
Per ulteriori informazioni sulla classificazione delle immagini, vedere. Classificazione delle immagini - MXNet
In questo esempio, un modello di rilevamento di oggetti basato sull'SageMaker intelligenza artificiale your_cv_od_model viene addestrato sulle stesse immagini JPEG per identificare gli animali su di esse. Il prossimo esempio mostra come generare spiegazioni per il rilevamento di oggetti.
{ "dataset_type": "application/x-image", "probability_threshold":0.5, "methods": { "shap": { "image_config": { "model_type": "OBJECT_DETECTION", "max_objects":3, "context":1.0, "iou_threshold":0.5, "num_segments":20, "segment_compactness":10} }, "report": { "name": "report" } }, "predictor": { "model_name": "your_cv_od_model", "initial_instance_count":1, "instance_type": "ml.p2.xlarge", "label_headers": ["bird","cat","dog"] } }
L'esempio seguente mostra un file di configurazione dell'analisi per il calcolo dell'importanza delle funzionalità per una serie temporale (TS). In questo esempio, il set di dati in entrata è un set di dati di serie temporali in formato JSON con un set di caratteristiche di covariata dinamiche e statiche. Il set di dati viene fornito al job SageMaker Clarify dal parametro di input di elaborazione del set di dati. dataset_uri
[ { "item_id": "item1", "timestamp": "2019-09-11", "target_value": 47650.3, "dynamic_feature_1": 0.4576, "dynamic_feature_2": 0.2164, "dynamic_feature_3": 0.1906, "static_feature_1": 3, "static_feature_2": 4 }, { "item_id": "item1", "timestamp": "2019-09-12", "target_value": 47380.3, "dynamic_feature_1": 0.4839, "dynamic_feature_2": 0.2274, "dynamic_feature_3": 0.1889, "static_feature_1": 3, "static_feature_2": 4 }, { "item_id": "item2", "timestamp": "2020-04-23", "target_value": 35601.4, "dynamic_feature_1": 0.5264, "dynamic_feature_2": 0.3838, "dynamic_feature_3": 0.4604, "static_feature_1": 1, "static_feature_2": 2 }, ]
Le sezioni seguenti spiegano come calcolare le attribuzioni delle funzionalità per un modello di previsione con l'algoritmo asimmetrico dei valori Shapley per un set di dati JSON.
Calcola le spiegazioni per i modelli di previsione delle serie temporali
Il seguente esempio di configurazione di analisi mostra le opzioni utilizzate dal job per calcolare le spiegazioni dei modelli di previsione delle serie temporali.
{ 'dataset_type': 'application/json', 'dataset_uri': 'DATASET_URI', 'methods': { 'asymmetric_shapley_value': { 'baseline': { "related_time_series": "zero", "static_covariates": { "item1": [0, 0], "item2": [0, 0] }, "target_time_series": "zero" }, 'direction': 'chronological', 'granularity': 'fine_grained', 'num_samples': 10 }, 'report': {'name': 'report', 'title': 'Analysis Report'} }, 'predictor': { 'accept_type': 'application/json', 'content_template': '{"instances": $records}', 'endpoint_name': 'ENDPOINT_NAME', 'content_type': 'application/json', 'record_template': '{ "start": $start_time, "target": $target_time_series, "dynamic_feat": $related_time_series, "cat": $static_covariates }', 'time_series_predictor_config': {'forecast': 'predictions[*].mean[:2]'} }, 'time_series_data_config': { 'dataset_format': 'timestamp_records', 'item_id': '[].item_id', 'related_time_series': ['[].dynamic_feature_1', '[].dynamic_feature_2', '[].dynamic_feature_3'], 'static_covariates': ['[].static_feature_1', '[].static_feature_2'], 'target_time_series': '[].target_value', 'timestamp': '[].timestamp' } }
Configurazione della spiegabilità delle serie temporali
L'esempio precedente utilizza asymmetric_shapley_value in methods per definire gli argomenti di spiegabilità delle serie temporali come baseline, direction, granularità e numero di campioni. I valori di base sono impostati per tutti e tre i tipi di dati: serie temporali correlate, covariate statiche e serie temporali target. Questi campi indicano al processore SageMaker Clarify di calcolare le attribuzioni delle funzionalità per un elemento alla volta.
Configurazione del predittore
È possibile controllare completamente la struttura del payload inviata dal processore Clarify utilizzando la SageMaker sintassi. JMESPath Nell'esempio precedente, la predictor configurazione indica a Clarify di aggregare i record in '{"instances": $records}' cui ogni record è definito con gli argomenti forniti nell'esempio. record_template Nota che$start_time, $target_time_series$related_time_series, e $static_covariates sono token interni utilizzati per mappare i valori dei set di dati ai valori delle richieste degli endpoint.
Analogamente, l'attributo forecast in time_series_predictor_config viene utilizzato per estrarre la previsione del modello dalla risposta dell'endpoint. Ad esempio, la risposta in batch dell'endpoint potrebbe essere la seguente:
{ "predictions": [ {"mean": [13.4, 3.6, 1.0]}, {"mean": [23.0, 4.7, 3.0]}, {"mean": [3.4, 5.6, 2.0]} ] }
Supponiamo di specificare la seguente configurazione del predittore di serie temporali:
'time_series_predictor_config': {'forecast': 'predictions[*].mean[:2]'}
Il valore di previsione viene analizzato come segue:
[ [13.4, 3.6], [23.0, 4.7], [3.4, 5.6] ]
Configurazione dei dati
Utilizzate l'time_series_data_configattributo per indicare al processore SageMaker Clarify di analizzare correttamente i dati a partire dai dati passati come URI S3 in. dataset_uri