Le traduzioni sono generate tramite traduzione automatica. In caso di conflitto tra il contenuto di una traduzione e la versione originale in Inglese, quest'ultima prevarrà.
Confronto quantitativo dei metodi di incertezza
Questa sezione descrive come abbiamo confrontato i metodi per stimare l'incertezza utilizzando il set di dati Corpus of Linguistic Acceptability (CoLA) (Warstadt, Singh e Bowman 2019). Il set di dati CoLA è costituito da una raccolta di frasi insieme a un indicatore binario che indica se sono accettabili. Le frasi possono essere etichettate come inaccettabili per una serie di motivi, tra cui sintassi, semantica o morfologia improprie. Queste frasi sono tratte da esempi tratti da pubblicazioni linguistiche. Esistono due set di convalida. Un set di convalida viene tratto dalle stesse fonti utilizzate per formare il set di dati di addestramento (nel dominio) e l'altro set di convalida viene tratto da fonti che non sono contenute nel set di formazione (fuori dal dominio). La tabella seguente riassume queste informazioni.
| Set di dati | Dimensione totale | Positiva | Negativa |
|---|---|---|---|
Addestramento |
8551 |
6023 |
2528 |
Convalida (nel dominio) |
527 |
363 |
164 |
Convalida (fuori dal dominio) |
516 |
354 |
162 |
Il confronto utilizza un'architettura di base Ro BERTa (Liu et al. 2019) con pesi preaddestrati e una testa inizializzata casualmente con un singolo livello nascosto. Gli iperparametri sono per lo più suggeriti nel BERTa documento Ro con alcune piccole modifiche.