

本文属于机器翻译版本。若本译文内容与英语原文存在差异，则一律以英文原文为准。

# 检测毒性言论
<a name="toxicity"></a>

 毒性言论检测旨在帮助管理涉及点对点对话的社交媒体平台，例如在线游戏和社交聊天平台。使用毒性言论可能对个人、同类群体和社区造成严重损害。标记毒性言论有助于组织保持对话的文明性，维护一个安全、包容的网络环境，让用户可以自由创建、分享和参与。

 Amazon Transcribe 毒性检测利用基于音频和文本的线索，对基于语音的毒性内容进行识别和分类，分为七个类别，包括性骚扰、仇恨言论、威胁、虐待、亵渎、侮辱和图片。除文本外，Amazon Transcribe 毒性检测还使用言论线索（例如语调和音高）来仔细研究言论中的毒性意图。这是对标准内容审核系统的改进，标准内容审核系统旨在仅关注特定术语，而不考虑意图。

 Amazon Transcribe 对毒性言论进行标记和分类，从而最大限度地减少必须手动处理的数据量。这使内容审阅者能够快速高效地管理其平台上的话语。

毒性言论类别包括：
+ **亵渎**：包含不礼貌、粗俗或令人反感的单词、短语或首字母缩略词的言论。
+ **仇恨言论**：基于身份（例如种族、民族、性别、宗教、性取向、能力和国籍）批评、侮辱、谴责或非人性化的言论。
+ **性**：通过直接或间接提及身体部位、身体特征或性别来表示性兴趣、活动或性唤起的言论。
+ **侮辱**：包括贬低、羞辱、嘲笑、侮辱或贬低语言的言论。这种语言也被标记为欺凌。
+ **暴力或威胁**：包括企图对个人或群体造成痛苦、伤害或敌意的威胁的言论。
+ **图形性言论**：使用视觉描述和令人不快的生动形象来表达的言论。这种语言通常故意过于详细，以加剧接受者的不适感。
+ **骚扰或虐待**：旨在影响接受者心理健康的言论，包括贬低和物化用语。这种语言也被标记为骚扰。

 毒性检测会分析语音片段（自然停顿之间的语音），并为这些片段分配置信度分数。置信度分数是介于 0 和 1 之间的值。置信度分数越大，表示内容属于关联类别毒性言论中的内容的可能性越大。您可以使用这些置信度分数为您的用例设置适当的毒性检测阈值。

**注意**  
 毒性检测仅适用于美国英语 (`(en-US)`) 的批量转录。

 查看 JSON 格式的[示例输出](toxicity-using.md#toxicity-using-output.title)。