Wählen Sie Modelle zur Textklassifizierung aus und setzen Sie sie ein - Amazon SageMaker KI

Die vorliegende Übersetzung wurde maschinell erstellt. Im Falle eines Konflikts oder eines Widerspruchs zwischen dieser übersetzten Fassung und der englischen Fassung (einschließlich infolge von Verzögerungen bei der Übersetzung) ist die englische Fassung maßgeblich.

Wählen Sie Modelle zur Textklassifizierung aus und setzen Sie sie ein

Stellen Sie zwei Textklassifizierungsmodelle zum Vergleich bereit: DistilBert Base Cased und BERT Base Uncased. Sie werden die Unterschiede zwischen diesen Modellen erkennen und sie mit der optimalen Instance-Konfiguration bereitstellen.

Warum diese beiden Modelle

Diese Modelle zeigen die typische Wahl, mit der Kunden bei der Produktion zwischen Leistung und Kosten konfrontiert sind:

  • BERT Base Uncased: Größer, genauer, aber langsamer und ressourcenintensiver.

  • DistilBert Base Cased: Kleiner, schneller, kostengünstiger, aber möglicherweise weniger genau.

Dieser Vergleich hilft Ihnen bei der Auswahl des richtigen Modells für Ihre spezifischen Bedürfnisse.

Grundlegendes zu den Modellnamen im Katalog

Die Modellnamen der Textklassifizierung im Katalog enthalten die folgenden Komponenten:

  • BERT: Bidirektionale Encoder-Repräsentationen von Transformers.

  • L-X_H-Y_A-Z: Modellstruktur, wobei:

    • L-X: Anzahl der Schichten (X).

    • H-Y: Versteckte Größe (Y).

    • A-Z: Anzahl der Aufmerksamkeitsköpfe (Z).

  • Small/Base/Large: Modellgröße und Komplexität.

  • Ohne Groß-/Kleinschreibung — Einstellung zur Berücksichtigung von Groß- und Kleinschreibung.

Beispiel: Small BERT L-2_H-128_A-2 steht für ein kleines BERT-Modell mit:

  • 2 Schichten

  • 128 versteckte Einheiten.

  • 2 aufmerksame Köpfe.

Greifen Sie auf den JumpStart Modellkatalog zu

Navigieren Sie zu den Textklassifizierungsmodellen im JumpStart Katalog.

  1. Öffnen Sie SageMaker AI Studio

  2. Wählen Sie im linken Navigationsbereich die Option JumpStart aus.

  3. Wählen Sie auf der JumpStart Seite Hugging Face aus.

  4. Wählen Sie Textklassifizierung aus.

Im Katalog sollte eine Liste der verfügbaren Textklassifizierungsmodelle angezeigt werden, einschließlich der Varianten DistilBERT und BERT.

Bereitstellen von Distilbert Base Cases

Stellen Sie das DistilBert-Modell mit der Standardkonfiguration bereit.

  1. Suchen Sie in der Modellliste nach DistilBert Base Cased (von Distilbert) und wählen Sie es aus.

  2. Behalten Sie auf der Seite mit den Modelldetails den standardmäßigen Instance-Typ bei.

  3. Behalten Sie alle anderen Standardeinstellungen bei und wählen Sie Bereitstellen aus.

  4. Warten Sie 5-10 Minuten, bis die Bereitstellung abgeschlossen ist.

  5. Um zu überprüfen, ob die Bereitstellung erfolgreich war, gehen Sie zu Bereitstellungen und dann zu Endpoints.

  6. Vergewissern Sie sich, dass der DistilBert-Endpunkt den Status anzeigt. InService

Bereitstellen von BERT-Base ohne Hülle

Stellen Sie das BERT-Modell zum Vergleich mit DistilBERT bereit.

  1. Kehren Sie zu den Textklassifizierungsmodellen von Hugging Face unter zurück. JumpStart

  2. Suchen Sie BERT Base Uncased (von google-bert) und wählen Sie es aus.

  3. Behalten Sie den Standard-Instance-Typ bei und wählen Sie Deploy.

  4. Um beide Bereitstellungen zu bestätigen, überprüfen Sie, ob auf beiden Endpunkten der InService Status in der Endpunktliste angezeigt wird.

Beide Modelle werden in Ihrer Endpunkteliste mit Status angezeigt. InService

Wichtig

Kopieren und speichern Sie die Endpunktnamen. Sie benötigen die Werte für den Bewertungsprozess.

Fehlerbehebung

Wenn Sie auf Probleme bei der Bereitstellung stoßen:

  • Stellen Sie bei Instance-Typfehlern sicher, dass Sie den Standard-Instance-Typ verwenden und nicht CPU-Instances wieml.m5.large.

  • Wenn Sie keine Modelle finden können, suchen Sie nach den genauen Modellnamen, einschließlich des Herausgebers in Klammern.

  • Überprüfen Sie bei fehlgeschlagenen Bereitstellungen den Dienststatus in Ihrer Region oder versuchen Sie es mit einer anderen Region.

Wenn Ihr Modell InService den Status anzeigt, fahren Sie mit Bewerten und vergleichen Sie die Leistung des Modells der Evaluierung Ihres bereitgestellten Modells fort.