Die vorliegende Übersetzung wurde maschinell erstellt. Im Falle eines Konflikts oder eines Widerspruchs zwischen dieser übersetzten Fassung und der englischen Fassung (einschließlich infolge von Verzögerungen bei der Übersetzung) ist die englische Fassung maßgeblich.
Wählen Sie Modelle zur Textklassifizierung aus und setzen Sie sie ein
Stellen Sie zwei Textklassifizierungsmodelle zum Vergleich bereit: DistilBert Base Cased und BERT Base Uncased. Sie werden die Unterschiede zwischen diesen Modellen erkennen und sie mit der optimalen Instance-Konfiguration bereitstellen.
Warum diese beiden Modelle
Diese Modelle zeigen die typische Wahl, mit der Kunden bei der Produktion zwischen Leistung und Kosten konfrontiert sind:
BERT Base Uncased: Größer, genauer, aber langsamer und ressourcenintensiver.
DistilBert Base Cased: Kleiner, schneller, kostengünstiger, aber möglicherweise weniger genau.
Dieser Vergleich hilft Ihnen bei der Auswahl des richtigen Modells für Ihre spezifischen Bedürfnisse.
Grundlegendes zu den Modellnamen im Katalog
Die Modellnamen der Textklassifizierung im Katalog enthalten die folgenden Komponenten:
BERT: Bidirektionale Encoder-Repräsentationen von Transformers.
L-X_H-Y_A-Z: Modellstruktur, wobei:
L-X: Anzahl der Schichten (X).
H-Y: Versteckte Größe (Y).
A-Z: Anzahl der Aufmerksamkeitsköpfe (Z).
Small/Base/Large: Modellgröße und Komplexität.
Ohne Groß-/Kleinschreibung — Einstellung zur Berücksichtigung von Groß- und Kleinschreibung.
Beispiel: Small BERT L-2_H-128_A-2 steht für ein kleines BERT-Modell mit:
2 Schichten
128 versteckte Einheiten.
2 aufmerksame Köpfe.
Greifen Sie auf den JumpStart Modellkatalog zu
Navigieren Sie zu den Textklassifizierungsmodellen im JumpStart Katalog.
-
Öffnen Sie SageMaker AI Studio
-
Wählen Sie im linken Navigationsbereich die Option JumpStart aus.
-
Wählen Sie auf der JumpStart Seite Hugging Face aus.
-
Wählen Sie Textklassifizierung aus.
Im Katalog sollte eine Liste der verfügbaren Textklassifizierungsmodelle angezeigt werden, einschließlich der Varianten DistilBERT und BERT.
Bereitstellen von Distilbert Base Cases
Stellen Sie das DistilBert-Modell mit der Standardkonfiguration bereit.
-
Suchen Sie in der Modellliste nach DistilBert Base Cased (von Distilbert) und wählen Sie es aus.
-
Behalten Sie auf der Seite mit den Modelldetails den standardmäßigen Instance-Typ bei.
-
Behalten Sie alle anderen Standardeinstellungen bei und wählen Sie Bereitstellen aus.
-
Warten Sie 5-10 Minuten, bis die Bereitstellung abgeschlossen ist.
-
Um zu überprüfen, ob die Bereitstellung erfolgreich war, gehen Sie zu Bereitstellungen und dann zu Endpoints.
-
Vergewissern Sie sich, dass der DistilBert-Endpunkt den Status anzeigt.
InService
Bereitstellen von BERT-Base ohne Hülle
Stellen Sie das BERT-Modell zum Vergleich mit DistilBERT bereit.
-
Kehren Sie zu den Textklassifizierungsmodellen von Hugging Face unter zurück. JumpStart
-
Suchen Sie BERT Base Uncased (von google-bert) und wählen Sie es aus.
-
Behalten Sie den Standard-Instance-Typ bei und wählen Sie Deploy.
-
Um beide Bereitstellungen zu bestätigen, überprüfen Sie, ob auf beiden Endpunkten der
InServiceStatus in der Endpunktliste angezeigt wird.
Beide Modelle werden in Ihrer Endpunkteliste mit Status angezeigt. InService
Wichtig
Kopieren und speichern Sie die Endpunktnamen. Sie benötigen die Werte für den Bewertungsprozess.
Fehlerbehebung
Wenn Sie auf Probleme bei der Bereitstellung stoßen:
Stellen Sie bei Instance-Typfehlern sicher, dass Sie den Standard-Instance-Typ verwenden und nicht CPU-Instances wie
ml.m5.large.Wenn Sie keine Modelle finden können, suchen Sie nach den genauen Modellnamen, einschließlich des Herausgebers in Klammern.
Überprüfen Sie bei fehlgeschlagenen Bereitstellungen den Dienststatus in Ihrer Region oder versuchen Sie es mit einer anderen Region.
Wenn Ihr Modell InService den Status anzeigt, fahren Sie mit Bewerten und vergleichen Sie die Leistung des Modells der Evaluierung Ihres bereitgestellten Modells fort.