Les traductions sont fournies par des outils de traduction automatique. En cas de conflit entre le contenu d'une traduction et celui de la version originale en anglais, la version anglaise prévaudra.
Sélection et déploiement de modèles de classification de texte
Déployez deux modèles de classification de texte à des fins de comparaison : DistilBERT Base Cased et BERT Base Uncased. Vous découvrirez les différences entre ces modèles et les déploierez en utilisant la configuration d’instance optimale.
Pourquoi ces deux modèles
Ces modèles montrent le choix typique auquel les clients sont confrontés en production entre la performance et le coût :
BERT Base Uncased : plus grand, plus exact, mais plus lent et plus gourmand en ressources.
DistilBERT Base Cased : plus petit, plus rapide, plus rentable, mais potentiellement moins exact.
Cette comparaison vous permet de choisir le modèle adapté à vos besoins spécifiques.
Comprendre les noms de modèles dans le catalogue
Les noms des modèles de classification de texte figurant dans le catalogue incluent les composants suivants :
BERT : Bidirectional Encoder Representations from Transformers.
L-X_H-Y_A-Z : structure du modèle où :
L-X : nombre de couches (X).
H-Y : taille cachée (Y).
A-Z : nombre de têtes d’attention (Z).
Small/Base/Large: taille et complexité du modèle.
Uncased/Cased : réglage de sensibilité de la casse.
Exemple : Small BERT L-2_H-128_A-2 indique un petit modèle BERT avec :
2 couches.
128 unités cachées.
2 têtes d’attention.
Accédez au catalogue JumpStart de modèles
Accédez aux modèles de classification de texte dans le JumpStart catalogue.
-
Ouvrez SageMaker AI Studio
-
Dans le panneau de navigation de gauche, choisissez JumpStart.
-
Sur la JumpStart page, choisissez Hugging Face.
-
Choisissez Classification de texte.
Vous devriez voir la liste des modèles de classification de texte disponibles dans le catalogue, y compris les variantes DistilBERT et BERT.
Déploiement de DistilBERT Base Cased
Déployez le modèle DistilBERT en utilisant la configuration par défaut.
-
Dans la liste des modèles, recherchez et choisissez DistilBERT Base Cased (by distilbert).
-
Sur la page de détails du modèle, conservez le type d’instance par défaut.
-
Conservez tous les autres paramètres par défaut et choisissez Déployer.
-
Attendez 5 à 10 minutes que le déploiement se termine.
-
Pour vérifier le succès du déploiement, allez dans Déploiements puis dans Points de terminaison.
-
Vérifiez que le point de terminaison DistilBERT affiche le statut
InService.
Déploiement de BERT Base Uncased
Déployez le modèle BERT à des fins de comparaison avec DistilBERT.
-
Revenez aux modèles JumpStart de classification de texte Hugging Face dans.
-
Recherchez et choisissez BERT Base Uncased (par google-bert).
-
Conservez le type d’instance par défaut et choisissez Déployer.
-
Pour confirmer les deux déploiements, vérifiez que les deux points de terminaison affichent le statut
InServicedans la liste des points de terminaison.
Les deux modèles apparaissent dans votre liste de points de terminaison avec le statut InService.
Important
Copiez et enregistrez les noms des points de terminaison. Vous en aurez besoin pour le processus d’évaluation.
Résolution des problèmes
Si vous rencontrez des problèmes de déploiement :
Pour les erreurs de type d’instance, vérifiez que vous utilisez le type d’instance par défaut, et non des instances CPU comme
ml.m5.large.Si vous ne trouvez pas de modèles, recherchez en utilisant les noms exacts des modèles, en indiquant le diffuseur de publication entre parenthèses.
Pour les déploiements ayant échoué, vérifiez l’état du service dans votre région ou essayez une autre région.
Une fois que votre modèle affiche le statut InService, reportez-vous à Évaluation et comparaison des performances des modèles pour évaluer votre modèle déployé.