

本文為英文版的機器翻譯版本，如內容有任何歧義或不一致之處，概以英文版為準。

# 評估、解釋和偵測模型中的偏差
<a name="model-explainability"></a>

Amazon SageMaker AI 提供特徵來改善您的機器學習 (ML) 模型，方法是偵測潛在的偏差，並協助解釋您模型從表格式、電腦視覺、自然處理或時間系列資料集所做的預測。它可協助您識別在訓練前資料和訓練後的各種偏差，這些偏差可能會在模型訓練期間或模型在生產中出現。您也可以使用基礎模型評估來評估語言模型的模型品質和責任指標。

下列主題提供如何使用 Amazon SageMaker AI 評估、解釋和偵測偏差的相關資訊。

**Topics**
+ [了解使用 SageMaker Clarify 評估大型語言模型的選項](clarify-foundation-model-evaluate.md)
+ [評估和比較 Amazon SageMaker JumpStart 文字分類模型](jumpstart-text-classification-evaluation.md)
+ [使用 SageMaker Clarify 進行公平性、模型可解釋性和偏差偵測](clarify-configure-processing-jobs.md)
+ [使用 SageMaker AI Autopilot 實現 SageMaker Clarify 可解釋性](autopilot-explainability.md)