Le traduzioni sono generate tramite traduzione automatica. In caso di conflitto tra il contenuto di una traduzione e la versione originale in Inglese, quest'ultima prevarrà.
Incertezza in decomposizione
Le reti neurali bayesiane (BNNs) producono una distribuzione predittiva
, che fornisce una serie di previsioni diverse da cui è possibile stimare la varianza
, ovvero l'incertezza predittiva totale.
L'incertezza predittiva totale può essere suddivisa in queste due componenti dell'incertezza utilizzando la legge della varianza totale:
Il valore atteso
di una variabile target
, dati i parametri di input
e casuali
che specificano un BNN
, viene stimato da un BNN con un'unica propagazione diretta e indicato come.
La varianza dell'obiettivo, dati i parametri di input e casuali
, viene emessa anche dal BNN e indicata come.
Pertanto, l'incertezza predittiva totale è la somma di questi due numeri:
-
La varianza rispetto alle medie previste dalla BNN: l'incertezza epistemica
-
La media della varianza prevista della BNN: l'incertezza aleatoria
La formula seguente mostra come calcolare l'incertezza totale in conformità a (Kendall and Gal 2017). BNNs input
, genera una configurazione
casuale dei parametri ed effettua un'unica propagazione in avanti attraverso la rete neurale per produrre una media e una varianza.
Indichiamo una generazione casuale, o simulazione, con ~. Con fixed
, puoi ripetere questo processo più
volte per ottenere un set:
Questi
numerosi campioni
forniscono le statistiche necessarie per accertare le incertezze. È possibile farlo stimando separatamente l'incertezza epistemica e l'incertezza aleatoria, e poi prendendone la somma, come mostrato in precedenza nella prima equazione di questa sezione.