Confronto quantitativo dei metodi di incertezza - AWS Guida prescrittiva

Le traduzioni sono generate tramite traduzione automatica. In caso di conflitto tra il contenuto di una traduzione e la versione originale in Inglese, quest'ultima prevarrà.

Confronto quantitativo dei metodi di incertezza

Questa sezione descrive come abbiamo confrontato i metodi per stimare l'incertezza utilizzando il set di dati Corpus of Linguistic Acceptability (CoLA) (Warstadt, Singh e Bowman 2019). Il set di dati CoLA è costituito da una raccolta di frasi insieme a un indicatore binario che indica se sono accettabili. Le frasi possono essere etichettate come inaccettabili per una serie di motivi, tra cui sintassi, semantica o morfologia improprie. Queste frasi sono tratte da esempi tratti da pubblicazioni linguistiche. Esistono due set di convalida. Un set di convalida viene tratto dalle stesse fonti utilizzate per formare il set di dati di addestramento (nel dominio) e l'altro set di convalida viene tratto da fonti che non sono contenute nel set di formazione (fuori dal dominio). La tabella seguente riassume queste informazioni.

Set di dati Dimensione totale Positiva Negativa

Addestramento

8551

6023

2528

Convalida (nel dominio)

527

363

164

Convalida (fuori dal dominio)

516

354

162

Il confronto utilizza un'architettura di base Ro BERTa (Liu et al. 2019) con pesi preaddestrati e una testa inizializzata casualmente con un singolo livello nascosto. Gli iperparametri sono per lo più suggeriti nel BERTa documento Ro con alcune piccole modifiche.