選取並部署文字分類模型 - Amazon SageMaker AI

本文為英文版的機器翻譯版本,如內容有任何歧義或不一致之處,概以英文版為準。

選取並部署文字分類模型

部署兩個文字分類模型進行比較:DistilBERT Base Cased 和 BERT Base Uncased。您將看到這些模型之間的差異,並使用最佳執行個體組態部署它們。

為什麼選擇這兩個模型

這些模型顯示客戶在生產時於效能與成本之間面臨的典型選擇:

  • BERT Base Uncased:更大、更準確,但速度較慢且資源更密集。

  • DistilBERT Base Cased:更小、更快、更具成本效益,但可能不太準確。

此比較可協助您選擇適合您特定需求的模型。

了解目錄中的模型名稱

目錄中的文字分類模型名稱包含下列元件:

  • BERT:來自轉換器的雙向編碼器表示法。

  • L-X_H-Y_A-Z:模型結構,其中:

    • L-X:層數 (X)。

    • H-Y:隱藏大小 (Y)。

    • A-Z:注意力頭數量 (Z)。

  • Small/Base/Large:模型大小和複雜性。

  • Uncased/Cased - 區分大小寫設定。

範例:Small BERT L-2_H-128_A-2 指出小型 BERT 模型,其中具有:

  • 2 層。

  • 128 個隱藏單位。

  • 2 個注意力頭。

存取 JumpStart 模型目錄

導覽至 JumpStart 目錄中的文字分類模型。

  1. 開啟 SageMaker AI Studio

  2. 在左側導覽窗格中,選擇 JumpStart

  3. 在 JumpStart 頁面上,選擇 Hugging Face

  4. 選擇文字分類

您應該會在目錄中看到可用的文字分類模型清單,包括 DistilBERT 和 BERT 變體。

部署 DistilBERT Base Cased

使用預設組態部署 DistilBERT 模型。

  1. 在模型清單中,尋找並選擇 DistilBERT Base Cased (依 Distilbert)。

  2. 在模型詳細資訊頁面上,保留預設執行個體類型。

  3. 保留其他所有預設設定,然後選擇部署

  4. 等待 5-10 分鐘讓部署完成。

  5. 若要驗證部署是否成功,請前往部署,然後前往端點

  6. 確認 DistilBERT 端點顯示 InService 狀態。

部署 BERT Base Uncased

部署 BERT 模型以與 DistilBERT 進行比較。

  1. 返回 JumpStart 中的 Hugging Face 文字分類模型。

  2. 尋找並選擇 BERT Base Uncased (依 google-bert)。

  3. 保留預設執行個體類型,然後選擇部署

  4. 若要確認這兩個部署,請檢查這兩個端點是否在端點清單中顯示 InService。狀態。

這兩個模型都會出現在您的端點清單中,狀態為 InService

重要

複製並儲存端點名稱。您將需要它們才能進行評估程序。

疑難排解

如果您遇到部署問題:

  • 對於執行個體類型錯誤,請驗證您使用的是預設執行個體類型,而不是 ml.m5.large 之類的 CPU 執行個體。

  • 如果您找不到模型,請使用確切的模型名稱進行搜尋,包括括號中的發布者。

  • 對於失敗的部署,請檢查您區域中的服務運作狀態,或嘗試不同的區域。

在您的模型顯示 InService 狀態之後,請繼續評估和比較模型效能以評估您部署的模型。