Une approche de l'incertitude fondée sur la théorie de l'information - AWS Conseils prescriptifs

Les traductions sont fournies par des outils de traduction automatique. En cas de conflit entre le contenu d'une traduction et celui de la version originale en anglais, la version anglaise prévaudra.

Une approche de l'incertitude fondée sur la théorie de l'information

L'explication de l'incertitude présentée dans la section précédente repose uniquement sur la notion d'incertitude liée à la variance, mais des notions d'incertitude fondées sur la théorie de l'information existent également. L'intégration de l'incertitude aléatoire théorique de l'information améliore la robustesse de l'estimation de l'incertitude totale (Gal 2016, Hein, Andriushchenko et Bitterwolf 2019, van Amersfoort et al. 2020). L'incertitude totale est mesurée par l'entropie de Shannon :

Entropie de Shannon

Ellipsis symbol represented by three dots in parentheses. est l'opérateur du produit point et Letter K icon representing a single alphabetic character or keyboard key. le nombre de classes.

L'entropie prédictive Mathematical formula H(p) representing an entropy function. est disponible pour les réseaux neuronaux bayésiens et non bayésiens. Afin de décomposer cette incertitude totale en composantes épistémique et aléatoire, vous devez estimer l'information mutuelle, ce qui nécessite une approche Mathematical formula showing MI as a function of p and theta in parentheses. bayésienne.

Informations mutuelles