

Le traduzioni sono generate tramite traduzione automatica. In caso di conflitto tra il contenuto di una traduzione e la versione originale in Inglese, quest'ultima prevarrà.

# Selezione e implementazione dei modelli di classificazione del testo
<a name="jumpstart-text-classification-deploy"></a>

Implementa due modelli di classificazione del testo per il confronto: DistilBERT Base Cased e BERT Base Uncased. Vedrai le differenze tra questi modelli e li distribuirai utilizzando la configurazione ottimale dell’istanza.

## Perché questi due modelli
<a name="w2aac37c15c21b5"></a>

Questi modelli rappresentano la decisione tipica che i clienti devono affrontare in produzione in termini di prestazioni e costi:
+ **BERT Base Uncased**: più grande e preciso, ma anche più lento e dispendioso in termini di risorse.
+ **DistilBERT Base Cased**: più piccolo, più veloce, più economico, ma potenzialmente meno preciso.

Questo confronto ti aiuta a scegliere il modello giusto per le tue esigenze specifiche.

## Informazioni sui nomi dei modelli nel catalogo
<a name="w2aac37c15c21b7"></a>

I nomi dei modelli di classificazione del testo nel catalogo includono i seguenti componenti:
+ BERT: Bidirectional Encoder Representations from Transformers.
+ L-X\$1H-Y\$1A-Z: struttura del modello, dove
  + L-X: è il numero di livelli (X).
  + H-Y: è la dimensione nascosta (Y).
  + A-Z: è il numero di teste di attenzione (Z).
+ Small/Base/Large: Dimensioni e complessità del modello.
+ Uncased/Cased: impostazione della distinzione tra lettere maiuscole e minuscole.

Esempio: `Small BERT L-2_H-128_A-2` indica un piccolo modello BERT con:
+ 2 livelli.
+ 128 unità nascoste.
+ 2 teste di attenzione.

## Accedi al catalogo dei JumpStart modelli
<a name="w2aac37c15c21b9"></a>

Vai ai modelli di classificazione del testo nel JumpStart catalogo.

1. Apri SageMaker AI Studio

1. Nel riquadro di navigazione a sinistra, scegliere **JumpStart**.

1. Nella JumpStart pagina, scegli **Hugging Face**.

1. Scegli **Classificazione del testo**.

Dovresti vedere un elenco di modelli di classificazione del testo disponibili nel catalogo, comprese le varianti DistilBERT e BERT.

## Implementazione di DistilBERT Base Cased
<a name="w2aac37c15c21c11"></a>

Implementa il modello DistilBERT utilizzando la configurazione predefinita.

1. Nell’elenco dei modelli, trova e scegli **DistilBERT Base Cased** (di distilbert).

1. Nella pagina dei dettagli del modello, mantieni il tipo di istanza predefinito.

1. Mantieni tutte le altre impostazioni predefinite e scegli **Implementa**.

1. Attendi 5-10 minuti per il completamento dell’implementazione.

1. Per verificare la corretta esecuzione dell’implementazione, vai a **Implementazioni**, quindi a **Endpoint**.

1. Verifica che lo stato dell’endpoint DistilBERT sia `InService`.

## Implementazione di BERT Base Uncased
<a name="w2aac37c15c21c13"></a>

Implementa il modello BERT per il confronto con DistilBERT.

1. Torna ai modelli di classificazione del testo Hugging Face in. JumpStart

1. Trova e scegli **BERT Base Uncased** (di google-bert).

1. Mantieni il tipo di istanza predefinito e scegli **Implementa**.

1. Per confermare entrambe le implementazioni, verifica che entrambi gli endpoint mostrino lo stato `InService` nell’elenco degli endpoint.

Entrambi i modelli appaiono nell’elenco degli endpoint con lo stato `InService`.

**Importante**  
Copia e salva i nomi degli endpoint. Saranno necessari per il processo di valutazione.

## Risoluzione dei problemi
<a name="w2aac37c15c21c15"></a>

Se riscontri problemi di implementazione:
+ Per gli errori di tipo di istanza, verifica di utilizzare il tipo di istanza predefinito e non le istanze CPU come `ml.m5.large`.
+ Se non riesci a trovare i modelli, esegui la ricerca utilizzando i nomi esatti dei modelli, incluso il publisher tra parentesi.
+ In caso di implementazioni non riuscite, controlla lo stato di integrità del servizio nella tua Regione o prova un’altra Regione.

Una volta che lo stato del modello è `InService`, passa a [Valutazione e confronto delle prestazioni dei modelli](jumpstart-text-classification-evaluate.md) per valutare il modello implementato.