Die vorliegende Übersetzung wurde maschinell erstellt. Im Falle eines Konflikts oder eines Widerspruchs zwischen dieser übersetzten Fassung und der englischen Fassung (einschließlich infolge von Verzögerungen bei der Übersetzung) ist die englische Fassung maßgeblich.
Anhang C. Weitere Überlegungen und bemerkenswerte Methoden
Dieser Leitfaden befasst sich mit den praktischsten und effektivsten Methoden zur Ermittlung zuverlässiger Unsicherheitsmaße. Er befasst sich auch mit einigen der wichtigsten Krankheitsbilder wie out-of-distribution Degeneration und deterministische Selbstüberschätzung. Zu den anderen neueren Techniken gehören die deterministische Quantifizierung der Unsicherheit (DUQ) (van Amersfoort et al. 2020) und die Batch-Normalisierung während der Vorhersage (Nado et al. 2020).
DUQs sind eine neue Art von Deep-Learning-Klassifikatoren, die die traditionelle Softmax-Funktion nicht nutzen. Sorgen Sie stattdessen DUQs für zuverlässige Unsicherheiten bei den out-of-distribution Daten. DUQs gibt einen Vektor f (x) aus, der durch eine klassenspezifische Gewichtungsmatrix W c transformiert wird, um ihn einem Merkmalsvektor zuzuordnen. Der Abstand zwischen diesem Merkmalsvektor und den erlernten Schwerpunkten (ein Schwerpunkt für jede Klasse) steht für die entsprechenden Unsicherheiten. Die Entfernung zum nächstgelegenen Schwerpunkt wird als prädiktive Unsicherheit angesehen. Merkmalsvektoren sind in der Lage, weit von Schwerpunkten entfernte out-of-distribution Datenschwerpunkte abzubilden, indem sie die Glattheit des Modells regulieren. Die neuartige Regularisierungsmethode stimmt die Glätte so ab, dass Änderungen der Ausgabe mit Änderungen der Eingabe übereinstimmen, ohne dass sich so viel ändert, dass dadurch die Generalisierung beeinträchtigt wird. DUQs sind eine vielversprechende neue Methode zur Modellierung von Unsicherheiten und bieten eine Alternative zu komplexen Ensembles für zuverlässige Unsicherheiten in Umgebungen. out-of-distribution Einzelheiten finden Sie in den Veröffentlichungen im Abschnitt Referenzen.
Eine weitere erwähnenswerte Methode ist die Batch-Normalisierung zur Vorhersagezeit aus Gründen der out-of-distribution Robustheit (Nado et al. 2020). Diese Technik erfordert nur wenige Codezeilen für die Implementierung und behauptet, die Zuverlässigkeit von Unsicherheiten bei out-of-distribution Daten auf eine Weise zu verbessern, die tiefe Ensembles ergänzt. Ein interessanter Vorbehalt dieser Methode ist, dass die Qualität der Unsicherheit bei Vortrainingssettings tatsächlich nachlässt, was Fragen für die future Arbeit aufwirft.