

翻訳は機械翻訳により提供されています。提供された翻訳内容と英語版の間で齟齬、不一致または矛盾がある場合、英語版が優先します。

# トレーニング済みデータとモデルバイアス
<a name="clarify-detect-post-training-bias"></a>

トレーニング後のバイアス分析は、データ内のバイアス、または分類と予測アルゴリズムによって導入されたバイアスから発生した可能性のあるバイアスを明らかにするのに役立ちます。これらの分析では、ラベルなどのデータとモデルの予測が考慮されます。パフォーマンスを評価するには、予測ラベルを分析するか、予測を、異なる属性を持つグループに関してデータ内で観測された目標値と比較します。公平性にはさまざまな概念があり、測定をするために、それぞれにさまざまなバイアスメトリクスが必要になります。

公平性の法的概念は、検出が難しいため、把握が容易ではない可能性があります。例えば、一見公平なアプローチであっても、有利でないファセット *d* と呼ばれるグループが不利益を受ける場合に生じる、格差影響という概念があります。このタイプのバイアスは機械学習モデルが原因ではないかもしれませんが、トレーニング後のバイアス分析によって検出可能です。

Amazon SageMaker Clarify は、用語の一貫した使用を保証するように努めています。用語とその定義の一覧については、「[バイアスと公平性に関する Amazon SageMaker Clarify の用語解説](clarify-detect-data-bias.md#clarify-bias-and-fairness-terms)」を参照してください。

トレーニング後のバイアスメトリクスの詳細については、「[Learn How Amazon SageMaker Clarify Helps Detect Bias](https://aws.amazon.com/blogs/machine-learning/learn-how-amazon-sagemaker-clarify-helps-detect-bias/)」と「[Fairness Measures for Machine Learning in Finance](https://pages.awscloud.com/rs/112-TZM-766/images/Fairness.Measures.for.Machine.Learning.in.Finance.pdf)」を参照してください。