本文為英文版的機器翻譯版本,如內容有任何歧義或不一致之處,概以英文版為準。
選取並部署文字分類模型
部署兩個文字分類模型進行比較:DistilBERT Base Cased 和 BERT Base Uncased。您將看到這些模型之間的差異,並使用最佳執行個體組態部署它們。
為什麼選擇這兩個模型
這些模型顯示客戶在生產時於效能與成本之間面臨的典型選擇:
BERT Base Uncased:更大、更準確,但速度較慢且資源更密集。
DistilBERT Base Cased:更小、更快、更具成本效益,但可能不太準確。
此比較可協助您選擇適合您特定需求的模型。
了解目錄中的模型名稱
目錄中的文字分類模型名稱包含下列元件:
BERT:來自轉換器的雙向編碼器表示法。
L-X_H-Y_A-Z:模型結構,其中:
L-X:層數 (X)。
H-Y:隱藏大小 (Y)。
A-Z:注意力頭數量 (Z)。
Small/Base/Large:模型大小和複雜性。
Uncased/Cased - 區分大小寫設定。
範例:Small BERT L-2_H-128_A-2 指出小型 BERT 模型,其中具有:
2 層。
128 個隱藏單位。
2 個注意力頭。
存取 JumpStart 模型目錄
導覽至 JumpStart 目錄中的文字分類模型。
-
開啟 SageMaker AI Studio
-
在左側導覽窗格中,選擇 JumpStart。
-
在 JumpStart 頁面上,選擇 Hugging Face。
-
選擇文字分類。
您應該會在目錄中看到可用的文字分類模型清單,包括 DistilBERT 和 BERT 變體。
部署 DistilBERT Base Cased
使用預設組態部署 DistilBERT 模型。
-
在模型清單中,尋找並選擇 DistilBERT Base Cased (依 Distilbert)。
-
在模型詳細資訊頁面上,保留預設執行個體類型。
-
保留其他所有預設設定,然後選擇部署。
-
等待 5-10 分鐘讓部署完成。
-
若要驗證部署是否成功,請前往部署,然後前往端點。
-
確認 DistilBERT 端點顯示
InService狀態。
部署 BERT Base Uncased
部署 BERT 模型以與 DistilBERT 進行比較。
-
返回 JumpStart 中的 Hugging Face 文字分類模型。
-
尋找並選擇 BERT Base Uncased (依 google-bert)。
-
保留預設執行個體類型,然後選擇部署。
-
若要確認這兩個部署,請檢查這兩個端點是否在端點清單中顯示
InService。狀態。
這兩個模型都會出現在您的端點清單中,狀態為 InService。
重要
複製並儲存端點名稱。您將需要它們才能進行評估程序。
疑難排解
如果您遇到部署問題:
對於執行個體類型錯誤,請驗證您使用的是預設執行個體類型,而不是
ml.m5.large之類的 CPU 執行個體。如果您找不到模型,請使用確切的模型名稱進行搜尋,包括括號中的發布者。
對於失敗的部署,請檢查您區域中的服務運作狀態,或嘗試不同的區域。
在您的模型顯示 InService 狀態之後,請繼續評估和比較模型效能以評估您部署的模型。