

翻訳は機械翻訳により提供されています。提供された翻訳内容と英語版の間で齟齬、不一致または矛盾がある場合、英語版が優先します。

# 最適化されたモデルのパフォーマンスを評価する
<a name="model-optimize-evaluate"></a>

最適化ジョブを使用して最適化されたモデルを作成したら、モデルのパフォーマンスの評価を実行できます。この評価により、レイテンシー、スループット、および料金のメトリクスが得られます。これらのメトリクスを使用すると、最適化されたモデルがユースケースのニーズを満たしているかどうか、またはさらなる最適化が必要かどうかを判断できます。

パフォーマンス評価を実行できるのは、Studio のみです。この機能は、Amazon SageMaker AI API または Python SDK には搭載されていません。

## [開始する前に]
<a name="eval-prereqs"></a>

パフォーマンス評価を作成する前に、まず推論最適化ジョブを作成してモデルを最適化する必要があります。Studio で評価できるのは、これらのジョブで作成したモデルのみです。

## パフォーマンス評価を作成する
<a name="create-perf-eval"></a>

Studio で次の手順を実行して、最適化されたモデルのパフォーマンス評価を作成します。

1. Studio ナビゲーションメニューの **[ジョブ]** で、**[推論最適化]** を選択します。

1. 評価する最適化モデルを作成したジョブの名前を選択します。

1. ジョブの詳細ページで、**[パフォーマンスの評価]** を選択します。

1. 一部の JumpStart モデルでは、**[パフォーマンスの評価]** ページで、続行する前にエンドユーザーライセンス契約 (EULA) に署名する必要があります。要求された場合、**[ライセンス契約]** セクションのライセンス条項を確認してください。その条項がユースケースで受け入れられる場合は、**[EULA に同意し、利用規約を読みました]** のチェックボックスをオンにします。

1. **[トークナイザーのモデルを選択]** では、デフォルトを受け入れるか、評価のトークナイザーとして機能する特定のモデルを選択します。

1. **[入力データセット]** では、以下の手順を実行するどうかを選択します。
   + SageMaker AI のデフォルトのサンプルデータセットを使用する。
   + 独自のサンプルデータセットを指す S3 URI を指定する。

1. **[パフォーマンス結果の S3 URI]** では、評価結果を保存する Amazon S3 の場所を指す URI を指定します。

1. **[評価]** を選択します。

   Studio に **[パフォーマンス評価]** ページが表示され、評価ジョブを確認できます。**[ステータス]** 列には、評価のステータスが表示されます。

1. ステータス **[完了済み]** になったら、ジョブの名前を選択して評価結果を表示します。

評価の詳細ページには、レイテンシー、スループット、および料金のパフォーマンスメトリクスが含まれているテーブルが表示されます。各メトリクスの詳細については、「[推論パフォーマンス評価のメトリクスのリファレンス](#performance-eval-metrics-reference)」を参照してください。

## 推論パフォーマンス評価のメトリクスのリファレンス
<a name="performance-eval-metrics-reference"></a>

最適化モデルのパフォーマンスを正常に評価すると、Studio の評価の詳細ページに次のメトリクスが表示されます。

### レイテンシーメトリクス
<a name="latency-metrics"></a>

**[レイテンシー]** セクションには、次のメトリクスが表示されます。

**同時実行**  
エンドポイントを同時に呼び出すために評価がシミュレートした同時ユーザーの数。

**最初のトークンまでの時間 (ミリ秒)**  
リクエストが送信されてからストリーミングレスポンスの最初のトークンが受信されるまでに経過した時間。

**トークン間レイテンシー (ミリ秒)**  
リクエストごとに出力トークンを生成する時間。

**クライアントレイテンシー (ミリ秒)**  
リクエストが送信されてからレスポンス全体が受信されるまでのリクエストレイテンシー。

**入力トークン/秒 (数)**  
すべてのリクエストで生成された入力トークンの合計数を、同時実行の合計時間 (秒単位) で割った値。

**出力トークン/秒 (数)**  
すべてのリクエストで生成された出力トークンの合計数を、同時実行の合計時間 (秒単位) で割った値。

**クライアント呼び出し (数)**  
同時実行時にすべてのユーザーにエンドポイントに送信された推論リクエストの合計数。

**クライアント呼び出しエラー (数)**  
呼び出しエラーが発生した特定の同時実行時に、すべてのユーザーにエンドポイントに送信された推論リクエストの合計数。

**トークン化に失敗 (数)**  
トークナイザーがリクエストまたはレスポンスの解析に失敗した推論リクエストの総数。

**空の推論レスポンス (数)**  
出力トークンがゼロになったか、トークナイザーがレスポンスの解析に失敗した推論リクエストの合計数。

### スループットメトリクス
<a name="throughput-metrics"></a>

**[スループット]** セクションには、次のメトリクスが表示されます。

**同時実行**  
エンドポイントを同時に呼び出すために評価がシミュレートした同時ユーザーの数。

**入力トークン/秒/リクエスト (数)**  
リクエストごとの 1 秒あたりに生成された入力トークンの合計数。

**出力トークン/秒/リクエスト (数)**  
リクエストごとの 1 秒あたりに生成された出力トークンの合計数。

**入力トークン (数)**  
リクエストごとに生成された入力トークンの合計数。

**出力トークン (数)**  
リクエストごとに生成された出力トークンの合計数。

### 料金メトリクス
<a name="price-metrics"></a>

**[料金]** セクションには、次のメトリクスが表示されます。

**同時実行**  
エンドポイントを同時に呼び出すために評価がシミュレートした同時ユーザーの数。

**100 万入力トークンあたりの料金**  
100 万入力トークンの処理コスト。

**100 万出力トークンあたりの料金**  
100 万出力トークンの生成コスト。