Les traductions sont fournies par des outils de traduction automatique. En cas de conflit entre le contenu d'une traduction et celui de la version originale en anglais, la version anglaise prévaudra.
Annexe C. Autres considérations et méthodes remarquables
Ce guide présente les moyens les plus pratiques et les plus efficaces de déterminer des mesures fiables de l'incertitude. Il aborde également certaines pathologies majeures telles que la out-of-distribution dégénérescence et l'excès de confiance déterministe. Parmi les autres techniques récentes, citons la quantification déterministe de l'incertitude (DUQ) (van Amersfoort et al. 2020) et la normalisation par lots du temps de prévision (Nado et al. 2020).
DUQs sont un nouveau type de classificateur d'apprentissage profond qui n'utilise pas la fonction softmax traditionnelle. DUQs Prévoyez plutôt une incertitude fiable pour les out-of-distribution données. DUQs produit un vecteur, f (x), qui est transformé par une matrice de pondération spécifique à la classe, Wc, pour le mappage sur un vecteur de caractéristiques. La distance entre ce vecteur de caractéristiques et les centroïdes appris (un centroïde pour chaque classe) représente les incertitudes correspondantes. La distance jusqu'au centre de gravité le plus proche est considérée comme l'incertitude prédictive. Les vecteurs de caractéristiques peuvent cartographier des out-of-distribution données éloignées des centroïdes en régularisant la fluidité du modèle. La nouvelle méthode de régularisation ajuste la fluidité de telle sorte que les changements de sortie coïncident avec les changements d'entrée, sans pour autant compromettre la généralisation. DUQs constituent une nouvelle méthode prometteuse pour modéliser l'incertitude et offrent une alternative aux ensembles profonds pour une incertitude fiable dans out-of-distribution les paramètres. Pour plus de détails, consultez les publications dans la section Références.
Une autre méthode à noter est la normalisation par lots du temps de prédiction pour la out-of-distribution robustesse (Nado et al. 2020). Cette technique ne nécessite que quelques lignes de code pour être mise en œuvre et prétend améliorer la fiabilité des incertitudes avec les out-of-distribution données d'une manière complémentaire aux ensembles profonds. Un inconvénient intéressant à cette méthode est que la qualité de l'incertitude dégénère en fait dans les contextes de préentraînement, ce qui soulève des questions pour les travaux futurs.