本文属于机器翻译版本。若本译文内容与英语原文存在差异,则一律以英文原文为准。
选择和部署文本分类模型
部署两个文本分类模型以进行比较:DistilBERT Base Cased 和 BERT Base Uncased。您将看到这两个模型之间的差异,并使用最佳实例配置来部署它们。
为什么选择这两个模型
这两个模型体现了客户在生产环境中通常面临的性能与成本之间的选择:
BERT Base Uncased:规模更大、准确率更高,但速度更慢且资源消耗更多。
DistilBERT Base Cased:规模更小、速度更快、性价比更高,但准确率可能较低。
此比较有助于您根据自身特定需求选择合适的模型。
了解目录中的模型名称
目录中的文本分类模型名称包括以下组件:
BERT:基于转换器的双向编码器表示。
L-X_H-Y_A-Z:模型结构,其中:
L-X:层数(X)。
H-Y:隐藏规模(Y)。
A-Z:注意力头数量(Z)。
Small/Base/Large:模型大小和复杂性。
Uncased/Cased - 大小写区分设置。
示例:Small BERT L-2_H-128_A-2 表示带以下内容的小型 BERT 模型:
2 层。
128 个隐藏单元。
2 个注意力头。
访问 JumpStart 模型目录
导航到 JumpStart 目录中的文本分类模型。
-
打开 SageMaker AI 工作室
-
在左侧导航窗格中,选择 JumpStart。
-
在 JumpStart 页面上,选择 Hugging Face。
-
选择文本分类。
您应在目录中看到可用文本分类模型列表,包括 DistilBERT 和 BERT 变体。
部署 DistilBERT Base Cased
使用默认配置部署 DistilBERT 模型。
-
在模型列表中,找到并选择 DistilBERT Base Cased(由 distilbert 提供)。
-
在模型详细信息页面上,保留默认实例类型。
-
保留所有其他默认设置,然后选择部署。
-
等待 5-10 分钟,直至部署完成。
-
要验证部署是否成功,请依次转到部署和端点。
-
确认 DistilBERT 端点显示
InService状态。
部署 BERT Base Uncased
部署 BERT 模型以便与 DistilBERT 进行比较。
-
返回到中的 Hugging Face 文本分类模型 JumpStart。
-
找到并选择 BERT Base Uncased(由 google-bert 提供)。
-
保留默认实例类型并选择部署。
-
要确认这两个部署,请检查两个端点是否在端点列表中显示
InService状态。
这两个模型都以 InService 状态显示在端点列表中。
重要
复制并保存端点名称。您在评估过程中需要使用该名称。
问题排查
如果您遇到部署问题:
对于实例类型错误,请确认您使用的是默认实例类型,而不是 CPU 实例(如
ml.m5.large)。如果找不到模型,请使用确切的模型名称(包含括号内的发布者)进行搜索。
对于失败的部署,请检查您所在区域的服务运行状况或尝试其他区域。
在模型显示 InService 状态后,继续评估和比较模型性能以评估已部署的模型。