テキスト分類モデルを選択してデプロイする - Amazon SageMaker AI

翻訳は機械翻訳により提供されています。提供された翻訳内容と英語版の間で齟齬、不一致または矛盾がある場合、英語版が優先します。

テキスト分類モデルを選択してデプロイする

比較のために、DistilBERT Base Cased と BERT Base Uncased の 2 つのテキスト分類モデルをデプロイします。これらのモデルの違いを確認し、最適なインスタンス設定を使用してデプロイします。

これら 2 つのモデルを使用する理由

これらのモデルは、お客様が本番環境で直面するパフォーマンスとコストの一般的な選択肢です。

  • BERT Base Uncased: より大規模で、より正確ですが、より遅く、リソースを大量に消費します。

  • DistilBERT Base Cased: より小型かつ高速で、費用対効果は高くなりますが、精度が低い可能性があります。

この比較は、特定のニーズに合わせて適切なモデルを選択するのに役立ちます。

カタログ内のモデル名について

カタログ内のテキスト分類モデル名には、次のコンポーネントが含まれます。

  • BERT: トランスフォーマーからの双方向エンコーダ表現。

  • L-X_H-Y_A-Z: モデル構造:

    • L-X: レイヤーの数 (X)

    • H-Y: 非表示サイズ (Y)

    • A~Z: アテンションヘッドの数 (Z)

  • Small/Base/Large: モデルのサイズと複雑さ

  • Uncased/Cased - 大文字と小文字の区別の設定。

例: Small BERT L-2_H-128_A-2 は、次のとおり小規模な BERT モデルです。

  • 2 レイヤー

  • 128 の非表示ユニット

  • 2 つのアテンションヘッド

JumpStart モデルカタログにアクセスする

JumpStart カタログのテキスト分類モデルに移動します。

  1. SageMaker AI Studio を開く

  2. 左側のナビゲーションペインで、[JumpStart] を選択します。

  3. JumpStart ページで、[Hugging Face] をクリックします。

  4. [テキスト分類] を選択します。

DistilBERT や BERT バリアントなど、使用可能なテキスト分類モデルのリストがカタログに表示されます。

DistilBERT Base Cased をデプロイする

デフォルト設定を使用して DistilBERT モデルをデプロイします。

  1. モデルリストで、[DistilBERT Base Cased] (distilbert) を探して選択します。

  2. モデルの詳細ページで、デフォルトのインスタンスタイプのままにします。

  3. 他のすべての設定をデフォルトのままにして、[デプロイ] をクリックします。

  4. デプロイが完了するまで 5~10 分待ちます。

  5. デプロイの成功を確認するには、[デプロイ][エンドポイント] に移動します。

  6. DistilBERT エンドポイントのステータスが InService と表示されていることを確認します。

BERT Base Uncased をデプロイする

DistilBERT と比較するために BERT モデルをデプロイします。

  1. JumpStart の Hugging Face テキスト分類モデルに戻ります。

  2. [BERT Base Uncased] (google-bert) を検索して選択します。

  3. デフォルトのインスタンスタイプのままにして、[デプロイ] をクリックします。

  4. 両方のデプロイを確認するには、エンドポイントリストに両方のエンドポイントのステータスが InService と表示していることを確認します。

どちらのモデルも、InService ステータスでエンドポイントリストに表示されます。

重要

エンドポイント名をコピーして保存します。これらは評価プロセスで必要になります。

トラブルシューティング

デプロイの問題が発生した場合:

  • インスタンスタイプエラーの場合は、ml.m5.large などの CPU インスタンスではなく、デフォルトのインスタンスタイプを使用していることを確認します。

  • モデルが見つからない場合は、括弧内のパブリッシャーを含む正確なモデル名を使用して検索します。

  • 失敗したデプロイについては、リージョンのサービスの状態を確認するか、別のリージョンを試してください。

モデルのステータスが InService と表示されたら、モデルのパフォーマンスを評価して比較する に進み、引き続きデプロイされたモデルを評価します。