Le traduzioni sono generate tramite traduzione automatica. In caso di conflitto tra il contenuto di una traduzione e la versione originale in Inglese, quest'ultima prevarrà.
Selezione e implementazione dei modelli di classificazione del testo
Implementa due modelli di classificazione del testo per il confronto: DistilBERT Base Cased e BERT Base Uncased. Vedrai le differenze tra questi modelli e li distribuirai utilizzando la configurazione ottimale dell’istanza.
Perché questi due modelli
Questi modelli rappresentano la decisione tipica che i clienti devono affrontare in produzione in termini di prestazioni e costi:
BERT Base Uncased: più grande e preciso, ma anche più lento e dispendioso in termini di risorse.
DistilBERT Base Cased: più piccolo, più veloce, più economico, ma potenzialmente meno preciso.
Questo confronto ti aiuta a scegliere il modello giusto per le tue esigenze specifiche.
Informazioni sui nomi dei modelli nel catalogo
I nomi dei modelli di classificazione del testo nel catalogo includono i seguenti componenti:
BERT: Bidirectional Encoder Representations from Transformers.
L-X_H-Y_A-Z: struttura del modello, dove
L-X: è il numero di livelli (X).
H-Y: è la dimensione nascosta (Y).
A-Z: è il numero di teste di attenzione (Z).
Small/Base/Large: Dimensioni e complessità del modello.
Uncased/Cased: impostazione della distinzione tra lettere maiuscole e minuscole.
Esempio: Small BERT L-2_H-128_A-2 indica un piccolo modello BERT con:
2 livelli.
128 unità nascoste.
2 teste di attenzione.
Accedi al catalogo dei JumpStart modelli
Passa ai modelli di classificazione del testo nel JumpStart catalogo.
-
Apri SageMaker AI Studio
-
Nel riquadro di navigazione a sinistra, scegliere JumpStart.
-
Nella JumpStart pagina, scegli Hugging Face.
-
Scegli Classificazione del testo.
Dovresti vedere un elenco di modelli di classificazione del testo disponibili nel catalogo, comprese le varianti DistilBERT e BERT.
Implementazione di DistilBERT Base Cased
Implementa il modello DistilBERT utilizzando la configurazione predefinita.
-
Nell’elenco dei modelli, trova e scegli DistilBERT Base Cased (di distilbert).
-
Nella pagina dei dettagli del modello, mantieni il tipo di istanza predefinito.
-
Mantieni tutte le altre impostazioni predefinite e scegli Implementa.
-
Attendi 5-10 minuti per il completamento dell’implementazione.
-
Per verificare la corretta esecuzione dell’implementazione, vai a Implementazioni, quindi a Endpoint.
-
Verifica che lo stato dell’endpoint DistilBERT sia
InService.
Implementazione di BERT Base Uncased
Implementa il modello BERT per il confronto con DistilBERT.
-
Torna ai modelli di classificazione del testo Hugging Face in. JumpStart
-
Trova e scegli BERT Base Uncased (di google-bert).
-
Mantieni il tipo di istanza predefinito e scegli Implementa.
-
Per confermare entrambe le implementazioni, verifica che entrambi gli endpoint mostrino lo stato
InServicenell’elenco degli endpoint.
Entrambi i modelli appaiono nell’elenco degli endpoint con lo stato InService.
Importante
Copia e salva i nomi degli endpoint. Saranno necessari per il processo di valutazione.
risoluzione dei problemi
Se riscontri problemi di implementazione:
Per gli errori di tipo di istanza, verifica di utilizzare il tipo di istanza predefinito e non le istanze CPU come
ml.m5.large.Se non riesci a trovare i modelli, esegui la ricerca utilizzando i nomi esatti dei modelli, incluso il publisher tra parentesi.
In caso di implementazioni non riuscite, controlla lo stato di integrità del servizio nella tua Regione o prova un’altra Regione.
Una volta che lo stato del modello è InService, passa a Valutazione e confronto delle prestazioni dei modelli per valutare il modello implementato.