

翻訳は機械翻訳により提供されています。提供された翻訳内容と英語版の間で齟齬、不一致または矛盾がある場合、英語版が優先します。

# Amazon Connect のエージェント評価フォーム出力
<a name="evaluationforms-example-output-file"></a>

このセクションでは、評価のエクスポート出力パスと評価フォームのスコアの例を紹介し、評価フォームのメタデータについて説明します。

**Topics**
+ [S3 バケットを確認する](#verify-evaluation-s3bucket)
+ [出力場所の例](#example-evaluationform-output-locations)
+ [既知の問題](#release-note-evaluation-output)
+ [スコアの例](#example-evaluation-output-file)
+ [評価フォームのメタデータの定義](#evaluation-form-metadata)
+ [エクスポートされた評価の例](#exported-evaluation)

## S3 バケットを確認する
<a name="verify-evaluation-s3bucket"></a>

 Amazon Connect コンソールで **[Contact evaluations]** (問い合わせ評価) を有効にすると、評価を保存する S3 バケットを作成または選択するように求められます。バケットの名前を確認するには、インスタンスエイリアスに移動し、**[データストレージ]**、**[問い合わせ評価]**、**[編集]**の順に選択します。

## 出力場所の例
<a name="example-evaluationform-output-locations"></a>

評価フォームの出力ファイルパスは次のとおりです。
+ *contact\$1evaluations\$1S3\$1bucket*/Evaluations/*YYYY/MM/DD/hh:mm:ss.sTZD*-*evaluation\$1id*.json

例えば、次のようになります。

`amazon-connect-s3/Evaluations/2022/04/14/05:04:20.869Z-11111111-2222-3333-4444-555555555555.json`

## 既知の問題: 同じ評価に 2 つの出力ファイルが存在する
<a name="release-note-evaluation-output"></a>

Contact Lens は、同じ評価フォームで 2 つの出力ファイルを生成します。
+ 1 つのファイルが新しいデフォルト S3 パスに書き込まれます。パスは AWS コンソールで設定できます。
+ 廃止予定の別のファイルが、以前の別の S3 パスに書き込まれます。このファイルは無視できます。

  前述の S3 パスは次のようになります。
  + *s3\$1bucket*/Evaluations/contact\$1*contactId*/evaluation\$1*evaluationId*/YYYY-MM-DDThh:mm:ss.sTZD.json

## スコアの例
<a name="example-evaluation-output-file"></a>

一般的なスコアの例を次に示します。

```
{
  "schemaVersion": "3.5",
  "evaluationId": "fb90de35-4507-479a-8b57-970290fd5c2c",
  "metadata": {
    "contactId": "badd4896-75f7-43b3-bee6-c617ed3d04cb",
    "accountId": "874551140838",
    "instanceId": "8f753c94-9cd2-4f16-85eb-945f7f0d559a",
    "agentId": "286bcec0-e722-4166-865f-84db80252218",
    "evaluationDefinitionTitle": "Compliance Evaluation Form",
    "evaluator": "jane",
    "evaluationDefinitionId": "15d8fbf1-b4b2-4ace-869b-82714e2f6e3e",
    "evaluationDefinitionVersion": 2,
    "evaluationStartTimestamp": "2025-11-14T17:57:08.649Z",
    "evaluationSubmitTimestamp": "2025-11-14T17:59:29.052Z",
    "score": {
      "percentage": 100
    },
    "creator": "jane.doe@acme.com",
    "autoEvaluated": false,
    "resubmitted": false,
    "evaluationSource": "ASSISTED_BY_AUTOMATION",
    "evaluationType": "CONTACT_EVALUATION",
    "evaluationAcknowledgerComment": "The Acknowledgment comment",
    "evaluationAcknowledgedTimestamp": "2025-12-22T05:20:39.297Z",
    "evaluationAcknowledgedByUserName": "john",
    "evaluationAcknowledgedByUserId": "286bcec0-e722-4166-865f-84db80252218"
  },
  "sections": [
    {
      "sectionRefId": "s1a1b58d6",
      "sectionTitle": "The title of the section",
      "notes": "Section note",
      "score": {
        "percentage": 100
      }
    },
    {
      "sectionRefId": "s46661c49",
      "sectionTitle": "The title of the subsection",
      "parentSectionRefId": "s1a1b58d6",
      "score": {
        "percentage": 100
      }
    }
  ],
  "questions": [
    {
      "questionRefId": "q570b206a",
      "sectionRefId": "s46661c49",
      "questionType": "NUMERIC",
      "questionText": "How do you rate the contact between 1 and 10?",
      "answer": {
        "value": "",
        "notes": "Add more information here",
        "metadata": {
          "notApplicable": true
        }
      },
      "score": {
        "notApplicable": true
      }
    },
    {
      "questionRefId": "q73bc5b9d",
      "sectionRefId": "s46661c49",
      "questionType": "SINGLESELECT",
      "questionText": "Did the agent introduce themselves?",
      "answer": {
        "values": [
          {
            "valueText": "Yes",
            "valueRefId": "o6999aa94",
            "selected": true
          },
          {
            "valueText": "No",
            "valueRefId": "o284e4d9e",
            "selected": false
          },
          {
            "valueText": "Maybe",
            "valueRefId": "o1b2f0a14",
            "selected": false
          }
        ],
        "notes": "Add more information here",
        "automation": {
          "status": "SYSTEM_ANSWER",
          "systemSuggestedValue": "Yes"
        },
        "metadata": {
          "notApplicable": false
        }
      },
      "score": {
        "percentage": 100
      }
    },
    {
      "questionRefId": "h89bc7a9t",
      "sectionRefId": "s46661c49",
      "questionType": "SINGLESELECT",
      "questionText": "Did the agent offer a promotion?",
      "answer": {
        "values": [
          {
            "valueText": "Yes",
            "valueRefId": "p7888bb85",
            "selected": false
          },
          {
            "valueText": "No",
            "valueRefId": "p395f5e8f",
            "selected": true
          },
          {
            "valueText": "Maybe",
            "valueRefId": "p2c3g1b25",
            "selected": false
          }
        ],
        "notes": "Add more information here",
        "assistedSuggestion": {
          "value": "No. A promotion was not offered by the agent."
        },
        "metadata": {
          "notApplicable": false
        }
      },
      "score": {
        "percentage": 100
      }
    },
    {
      "questionRefId": "qc2effc9d",
      "sectionRefId": "s46661c49",
      "questionType": "TEXT",
      "questionText": "Describe the outcome.",
      "answer": {
        "value": "Example answer text",
        "notes": "Add more information here",
        "metadata": {
          "notApplicable": false
        }
      },
      "score": {
        "percentage": 50
      }
    }
  ]
}
```

## 評価フォームのメタデータの定義
<a name="evaluation-form-metadata"></a>

次のリストでは、評価フォームのフィールドについて説明します。

**evaluationId**  
問い合わせ評価の一意の識別子  
*タイプ* – 文字列  
*長さの制限* – 最小長は 1 最大長 500

**メタデータ**    
**ContactId**  
Amazon Connect のこのインスタンスの問い合わせの識別子。  
*タイプ* – 文字列  
*長さの制限* – 最小長 1、最大長 256  
**accountId**  
Amazon Connect のインスタンスを実行している AWS アカウントの識別子。  
*タイプ* – 文字列  
*長さの制限* – 制限: 12 桁  
*パターン* – `^\d{12}$`  
**instanceId**  
Amazon Connect インスタンスの識別子。インスタンスの Amazon リソースネーム (ARN) で[インスタンス ID を確認](find-instance-arn.md)できます。  
*長さの制限* – 最小長 1、最大長 100  
**agentId**  
コンタクトを実行したエージェントの識別子。  
*タイプ* – 文字列  
*長さの制限* – 最小長 1、最大長 500  
**evaluationDefinitionTitle**  
評価フォームのタイトル。  
*タイプ* – 文字列  
*長さの制限* – 最小長 1、最大長 128  
**評価者**  
評価を最後に更新したユーザー名。  
*タイプ* – 文字列  
**evaluationDefinitionId**  
評価フォームの一意の識別子。  
*タイプ* – 文字列  
*長さの制限* – 最小長 1、最大長 500  
**evaluationDefinitionVersion**  
評価フォームのバージョン。  
*タイプ* – 整数  
*有効範囲* – 最小値 1  
**evaluationStartTimestamp**  
評価の作成タイムスタンプ。  
*タイプ* – タイムスタンプ  
*例* – 2025-11-14T17:57:08.649Z  
**evaluationSubmitTimestamp**  
評価の送信タイムスタンプ。  
*タイプ* – タイムスタンプ  
*例* – 2025-11-14T17:59:29.052Z  
**score**  
評価のスコア。  
**作成者**  
 評価を最初に作成したエンティティ (最後に評価を送信したエンティティを表す「評価者」に対して）。 Amazon Connect 管理者ウェブサイトから呼び出しが行われると、ユーザー名が含まれます。呼び出しが API からの場合は呼び出し元の ARN が含まれます。  
*タイプ* – 文字列  
**autoEvaluated **  
 評価が完全自動評価を使用して送信されたかどうかを示します。  
*型* – ブール値  
**再送信済み **  
 評価が再送信 (編集および再送信) されたかどうかを示します。  
*型* – ブール値  
**evaluationSource **  
評価回答ソースのタイプ。  
*タイプ* – 文字列  
有効な値:  
+ `ASSISTED_BY_AUTOMATION` - いくつかの質問の回答に[質問の自動化](create-evaluation-forms.md#step-automate)が使用されたことを示します。
+ `MANUAL` - 評価が手動で実行されたことを示します。
+ `AUTOMATED` - 評価が完全自動評価を使用して送信されたことを示します (「autoEvaluated」フィールドを参照)。  
**evaluationType**  
評価のタイプ。  
*タイプ* – 文字列  
有効な値:  
+ `CONTACT_EVALUATION` - 問い合わせの評価。  
**calibrationSessionId**  
この評価に関連付けられたキャリブレーションセッションの識別子。  
*タイプ* – 文字列  
*長さの制限* – 最小長 1、最大長 500  
**evaluatedParticipantId**  
評価対象の参加者の識別子。  
*タイプ* – 文字列  
*長さの制限* – 最小長 1、最大長 256  
**evaluatedParticipantRole**  
評価対象の参加者のロール。  
*タイプ* – 文字列  
有効な値:  
+ `AGENT` - エージェント参加者。
+ `CUSTOMER` - 顧客参加者。
+ `SYSTEM` - システム参加者。  
**acknowledgerComment**  
評価を承認したユーザーが残したコメント。  
*タイプ* – 文字列  
*長さの制限* – 最小長 0、最大長 3,072  
**evaluationAcknowledgedByUserId**  
評価を承認したユーザーの識別子。  
*タイプ* – 文字列  
*長さの制限* – 最小長 1、最大長 500  
**evaluationAcknowledgedByUserName**  
評価を承認したユーザーの名前。  
*タイプ* – 文字列  
**evaluationAcknowledgedTimestamp**  
評価が承認されたタイムスタンプ。  
*タイプ* – タイムスタンプ  
*例* – 2025-12-24T15:45:56.662Z

**セクション**  
評価のセクションの配列。    
**sectionRefId**  
セクションの識別子。識別子は、評価フォーム内で一意である必要があります。  
*タイプ* – 文字列  
*長さの制限* – 最小長 1、最大長 40  
**parentSectionRefId**  
親セクションの識別子。  
*タイプ* – 文字列  
*長さの制限* – 最小長 1、最大長 40  
**sectionTitle**  
セクションのタイトル。  
*タイプ* – 文字列  
*長さの制限* – 制限: 最小長 0、最大長 128  
**メモ**  
セクションに残されたメモ。  
*タイプ* – 文字列  
*長さの制限* – 最小長 0、最大長 3,072  
メモには以下の制限があります。  
+ 個々のメモには 3072 文字の制限があります。
+ 評価のメモの合計文字数には *N* x 1024 文字の制限があります。*N* は評価の質問数です。  
**score**  
セクションのスコア。    
**割合(%)**  
問い合わせ評価の項目のスコアパーセンテージ。  
*タイプ* – 倍精度  
*有効範囲* – 最小値 0、最大値 100  
**automaticFail**  
項目を自動フェイルとしてマークするフラグ。その項目または子項目が自動フェイルの回答を得た場合、このフラグは true になります。  
*型* – ブール値  
**notApplicable**  
項目を自動フェイルとしてマークするフラグ。その項目または子項目が自動フェイルの回答を得た場合、このフラグは true になります。  
*型* – ブール値

**質問**  
評価の質問の配列。    
**questionRefId**  
質問の識別子。識別子は、評価フォーム内で一意である必要があります。  
*タイプ* – 文字列  
*長さの制限* – 最小長 1、最大長 40  
**sectionRefId**  
親セクションの識別子。  
*タイプ* – 文字列  
*長さの制限* – 最小長 1、最大長 40  
**questionType**  
質問のタイプ。  
*タイプ* – 評価のメモの合計文字数には *N* x 1024 文字の制限があります。*N* は評価の質問数です。  
*有効な値* – `TEXT | SINGLESELECT | NUMERIC`  
**questionText**  
質問のタイトル。  
*タイプ* – 文字列  
*長さの制限* – 最小長 0、最大長 350  
**回答**  
質問の回答。    
**値**  
問い合わせ評価の回答の文字列/数値。  
*タイプ* – 文字列/倍精度  
*長さの制限* – 文字列: 最小長 0、最大長 128  
**メモ**  
セクションに残されたメモ。  
*タイプ* – 文字列  
*長さの制限* – 最小長 0 最大長 3,072  
メモには 2 つの文字制限があります。個々のメモには 3072 文字の制限があります。評価のメモの合計文字数には N x 1024 文字の制限があります。N は評価の質問数です。  
**メタデータ**  
**notApplicable **  
質問が該当しないことを示すフラグ。  
*型* – ブール値  
**assistedSuggestion**  
[生成 AI](generative-ai-performance-evaluations.md) によって提案された回答。  
*タイプ* – 文字列  
**自動化**    
**ステータス**  
自動回答のステータス。  
*タイプ* – 文字列  
*有効な値* – `UNAVAILABLE | SYSTEM_ANSWER | OVERRIDDEN_ANSWER`  
**systemSuggestedValue**  
問い合わせ評価の自動回答の文字列または数値。  
*タイプ* – 文字列または倍精度  
*長さの制限* – 文字列: 最小長 0、最大長 128  
**score**  
質問の [score](#score) 。  
+ automaticFail - 項目がフォームにとって重要としてマークするフラグで、その項目が失敗すると、フォーム全体が失敗になります (スコアがゼロでマークされます）。その項目または子項目が自動フェイルの回答を得た場合、このフラグは true になり、フォーム全体が失敗になります。

  *型* – ブール値
+ notApplicable - 項目がスコアリングに該当しないとしてマークするフラグで、スコアリング計算から除外されます。

  *型* – ブール値

## エクスポートされた評価の例
<a name="exported-evaluation"></a>

次の例は、エクスポートされた典型的な評価を示しています。

```
{
  "schemaVersion": "3.5",
  "evaluationId": "fb90de35-4507-479a-8b57-970290fd5c2c",
  "metadata": {
    "accountId": "874551140838",
    "instanceId": "8f753c94-9cd2-4f16-85eb-945f7f0d559a",
    "contactId": "badd4896-75f7-43b3-bee6-c617ed3d04cb",
    "agentId": "286bcec0-e722-4166-865f-84db80252218",
    "evaluationDefinitionTitle": "Legal Compliance Evaluation Form",
    "evaluator": "jane",
    "evaluationDefinitionId": "15d8fbf1-b4b2-4ace-869b-82714e2f6e3e",
    "evaluationDefinitionVersion": 2,
    "evaluationStartTimestamp": "2022-11-14T17:57:08.649Z",
    "evaluationSubmitTimestamp": "2022-11-14T17:59:29.052Z",
    "score": {
      "percentage": 85
    },
    "autoEvaluated": false,
    "creator": "john",
    "resubmitted": false,
    "evaluationSource": "ASSISTED_BY_AUTOMATION",
    "evaluationType": "CONTACT_EVALUATION",
    "calibrationSessionId": "a1b2c3d4-e5f6-7890-abcd-ef1234567890",
    "evaluationAcknowledgedByUserId": "286bcec0-e722-4166-865f-84db80252218",
    "evaluationAcknowledgedByUserName": "mike",
    "evaluationAcknowledgedTimestamp": "2022-12-24T15:45:56.662Z",
    "evaluationAcknowledgerComment": "Manager walked through the evaluation during coaching",
    "evaluatedParticipantId": "participant-123",
    "evaluatedParticipantRole": "AGENT"
  },
  "sections": [
    {
      "sectionRefId": "s1a1b58d6",
      "sectionTitle": "Communication Skills",
      "notes": "Overall communication was professional",
      "score": {
        "percentage": 90
      }
    },
    {
      "sectionRefId": "s46661c49",
      "sectionTitle": "Greeting and Introduction",
      "parentSectionRefId": "s1a1b58d6",
      "notes": "Agent followed proper greeting protocol",
      "score": {
        "percentage": 100
      }
    }
  ],
  "questions": [
    {
      "questionRefId": "q570b206a",
      "sectionRefId": "s46661c49",
      "questionType": "NUMERIC",
      "questionText": "How many times did agent interrupt the customer",
      "answer": {
        "value": "2",
        "notes": "Interruptions were minimal and appropriate",
        "metadata": {
          "notApplicable": false,
          "automation": {
            "status": "OVERRIDDEN_ANSWER",
            "systemSuggestedValue": "3"
          }
        }
      },
      "score": {
        "percentage": 80
      }
    },
    {
      "questionRefId": "q73bc5b9d",
      "sectionRefId": "s46661c49",
      "questionType": "SINGLESELECT",
      "questionText": "Did the agent introduce themselves?",
      "answer": {
        "values": [
          {
            "valueText": "Yes",
            "valueRefId": "o6999aa94",
            "selected": true
          },
          {
            "valueText": "No",
            "valueRefId": "o284e4d9e",
            "selected": false
          },
          {
            "valueText": "N/A",
            "valueRefId": "system_default_null_value",
            "selected": false
          }
        ],
        "notes": "Agent provided clear introduction with name and department",
        "metadata": {
          "notApplicable": false,
          "assistedSuggestion": {
            "value": "The agent introduced themselves at the beginning of the call."
          }
        }
      },
      "score": {
        "percentage": 100
      }
    },
    {
      "questionRefId": "h89bc7a9t",
      "sectionRefId": "s46661c49",
      "questionType": "SINGLESELECT",
      "questionText": "Did the agent ask for consent to perform a credit check",
      "answer": {
        "values": [
          {
            "valueText": "Yes",
            "valueRefId": "o6999aa94",
            "selected": false
          },
          {
            "valueText": "No",
            "valueRefId": "o284e4d9e",
            "selected": true
          },
          {
            "valueText": "N/A",
            "valueRefId": "system_default_null_value",
            "selected": false
          }
        ],
        "notes": "Agent failed to obtain consent before credit check",
        "metadata": {
          "notApplicable": false
        }
      },
      "score": {
        "percentage": 0,
        "automaticFail": true
      }
    },
    {
      "questionRefId": "qc2effc9d",
      "sectionRefId": "s46661c49",
      "questionType": "MULTISELECT",
      "questionText": "What topics were discussed during the call",
      "answer": {
        "values": [
          {
            "valueText": "Account balance",
            "valueRefId": "topic_balance",
            "selected": true
          },
          {
            "valueText": "Payment options",
            "valueRefId": "topic_payment",
            "selected": true
          },
          {
            "valueText": "Account closure",
            "valueRefId": "topic_closure",
            "selected": false
          }
        ],
        "notes": "Customer inquired about balance and payment plans",
        "metadata": {
          "notApplicable": false
        }
      },
      "score": {
        "notApplicable": true
      }
    },
    {
      "questionRefId": "q8a9b0c1d",
      "sectionRefId": "s46661c49",
      "questionType": "TEXT",
      "questionText": "What was your general impression about the customer's satisfaction",
      "answer": {
        "value": "The customer seemed satisfied with the resolution and thanked the agent",
        "notes": "Positive customer sentiment throughout the call",
        "metadata": {
          "notApplicable": false
        }
      },
      "score": {
        "notApplicable": true
      }
    },
    {
      "questionRefId": "q2b3c4d5e",
      "sectionRefId": "s46661c49",
      "questionType": "DATETIME",
      "questionText": "What time was the follow-up scheduled",
      "answer": {
        "value": "2024-04-16T14:30:00+01:00",
        "notes": "Follow-up appointment confirmed with customer",
        "metadata": {
          "notApplicable": false
        }
      },
      "score": {
        "notApplicable": true
      }
    }
  ]
}
```