Selezione e implementazione dei modelli di classificazione del testo - Amazon SageMaker AI

Le traduzioni sono generate tramite traduzione automatica. In caso di conflitto tra il contenuto di una traduzione e la versione originale in Inglese, quest'ultima prevarrà.

Selezione e implementazione dei modelli di classificazione del testo

Implementa due modelli di classificazione del testo per il confronto: DistilBERT Base Cased e BERT Base Uncased. Vedrai le differenze tra questi modelli e li distribuirai utilizzando la configurazione ottimale dell’istanza.

Perché questi due modelli

Questi modelli rappresentano la decisione tipica che i clienti devono affrontare in produzione in termini di prestazioni e costi:

  • BERT Base Uncased: più grande e preciso, ma anche più lento e dispendioso in termini di risorse.

  • DistilBERT Base Cased: più piccolo, più veloce, più economico, ma potenzialmente meno preciso.

Questo confronto ti aiuta a scegliere il modello giusto per le tue esigenze specifiche.

Informazioni sui nomi dei modelli nel catalogo

I nomi dei modelli di classificazione del testo nel catalogo includono i seguenti componenti:

  • BERT: Bidirectional Encoder Representations from Transformers.

  • L-X_H-Y_A-Z: struttura del modello, dove

    • L-X: è il numero di livelli (X).

    • H-Y: è la dimensione nascosta (Y).

    • A-Z: è il numero di teste di attenzione (Z).

  • Small/Base/Large: Dimensioni e complessità del modello.

  • Uncased/Cased: impostazione della distinzione tra lettere maiuscole e minuscole.

Esempio: Small BERT L-2_H-128_A-2 indica un piccolo modello BERT con:

  • 2 livelli.

  • 128 unità nascoste.

  • 2 teste di attenzione.

Accedi al catalogo dei JumpStart modelli

Passa ai modelli di classificazione del testo nel JumpStart catalogo.

  1. Apri SageMaker AI Studio

  2. Nel riquadro di navigazione a sinistra, scegliere JumpStart.

  3. Nella JumpStart pagina, scegli Hugging Face.

  4. Scegli Classificazione del testo.

Dovresti vedere un elenco di modelli di classificazione del testo disponibili nel catalogo, comprese le varianti DistilBERT e BERT.

Implementazione di DistilBERT Base Cased

Implementa il modello DistilBERT utilizzando la configurazione predefinita.

  1. Nell’elenco dei modelli, trova e scegli DistilBERT Base Cased (di distilbert).

  2. Nella pagina dei dettagli del modello, mantieni il tipo di istanza predefinito.

  3. Mantieni tutte le altre impostazioni predefinite e scegli Implementa.

  4. Attendi 5-10 minuti per il completamento dell’implementazione.

  5. Per verificare la corretta esecuzione dell’implementazione, vai a Implementazioni, quindi a Endpoint.

  6. Verifica che lo stato dell’endpoint DistilBERT sia InService.

Implementazione di BERT Base Uncased

Implementa il modello BERT per il confronto con DistilBERT.

  1. Torna ai modelli di classificazione del testo Hugging Face in. JumpStart

  2. Trova e scegli BERT Base Uncased (di google-bert).

  3. Mantieni il tipo di istanza predefinito e scegli Implementa.

  4. Per confermare entrambe le implementazioni, verifica che entrambi gli endpoint mostrino lo stato InService nell’elenco degli endpoint.

Entrambi i modelli appaiono nell’elenco degli endpoint con lo stato InService.

Importante

Copia e salva i nomi degli endpoint. Saranno necessari per il processo di valutazione.

risoluzione dei problemi

Se riscontri problemi di implementazione:

  • Per gli errori di tipo di istanza, verifica di utilizzare il tipo di istanza predefinito e non le istanze CPU come ml.m5.large.

  • Se non riesci a trovare i modelli, esegui la ricerca utilizzando i nomi esatti dei modelli, incluso il publisher tra parentesi.

  • In caso di implementazioni non riuscite, controlla lo stato di integrità del servizio nella tua Regione o prova un’altra Regione.

Una volta che lo stato del modello è InService, passa a Valutazione e confronto delle prestazioni dei modelli per valutare il modello implementato.