Les traductions sont fournies par des outils de traduction automatique. En cas de conflit entre le contenu d'une traduction et celui de la version originale en anglais, la version anglaise prévaudra.
Une approche de l'incertitude fondée sur la théorie de l'information
L'explication de l'incertitude présentée dans la section précédente repose uniquement sur la notion d'incertitude liée à la variance, mais des notions d'incertitude fondées sur la théorie de l'information existent également. L'intégration de l'incertitude aléatoire théorique de l'information améliore la robustesse de l'estimation de l'incertitude totale (Gal 2016, Hein, Andriushchenko et Bitterwolf 2019, van Amersfoort et al. 2020). L'incertitude totale est mesurée par l'entropie de Shannon :
où
est l'opérateur du produit point et
le nombre de classes.
L'entropie prédictive
est disponible pour les réseaux neuronaux bayésiens et non bayésiens. Afin de décomposer cette incertitude totale en composantes épistémique et aléatoire, vous devez estimer l'information mutuelle, ce qui nécessite une approche
bayésienne.