

Die vorliegende Übersetzung wurde maschinell erstellt. Im Falle eines Konflikts oder eines Widerspruchs zwischen dieser übersetzten Fassung und der englischen Fassung (einschließlich infolge von Verzögerungen bei der Übersetzung) ist die englische Fassung maßgeblich.

# Ausgabe des Bewertungsformulars für Kundendienstmitarbeiter in Amazon Connect
<a name="evaluationforms-example-output-file"></a>

Dieser Abschnitt zeigt den Exportausgabepfad für Bewertungen, enthält ein Beispiel für die Punktzahlen des Bewertungsformulars und beschreibt die Metadaten des Formulars.

**Topics**
+ [Überprüfen des S3-Buckets](#verify-evaluation-s3bucket)
+ [Beispiele für Ausgabespeicherorte](#example-evaluationform-output-locations)
+ [Bekanntes Problem](#release-note-evaluation-output)
+ [Beispielpunktzahlen](#example-evaluation-output-file)
+ [Definitionen der Metadaten des Bewertungsformulars](#evaluation-form-metadata)
+ [Beispiel für eine exportierte Bewertung](#exported-evaluation)

## Überprüfen des S3-Buckets
<a name="verify-evaluation-s3bucket"></a>

Wenn Sie **Bewertung von Kontakten** in der Konsole von Amazon Connect aktivieren, werden Sie aufgefordert, einen S3-Bucket zum Speichern der Bewertungen zu erstellen oder auszuwählen. Gehen Sie zum Überprüfen des Bucket-Namens zu Ihrem Instance-Alias und wählen Sie **Datenspeicher**, **Kontaktbewertungen** und dann **Bearbeiten** aus.

## Beispiele für Ausgabespeicherorte
<a name="example-evaluationform-output-locations"></a>

Im Folgenden finden Sie den Ausgabedateipfad für Bewertungsformulare:
+ *contact\$1evaluations\$1S3\$1bucket**YYYY/MM/DD/hh:mm:ss.sTZD*/Evaluationen/ - .json *evaluation\$1id*

Beispiel:

`amazon-connect-s3/Evaluations/2022/04/14/05:04:20.869Z-11111111-2222-3333-4444-555555555555.json`

## Bekanntes Problem: Zwei Ausgabedateien für dieselbe Bewertung
<a name="release-note-evaluation-output"></a>

Contact Lens generiert zwei Ausgabedateien für dasselbe Bewertungsformular.
+ Eine Datei wird in den neuen S3-Standardpfad geschrieben. Sie können den Pfad in der Konsole konfigurieren. AWS 
+ Eine weitere Datei, die verworfen wird, wird in einen anderen, vorherigen S3-Pfad geschrieben. Sie können diese Datei ignorieren.

  Der vorherige S3-Pfad sieht so aus:
  + *s3\$1bucket*/evaluations/contact\$1 *contactId* /evaluation\$1 /yyyy-mm-:mm:ss.stzd.json *evaluationId* DDThh

## Beispielpunktzahlen
<a name="example-evaluation-output-file"></a>

Das folgende Beispiel zeigt eine typische Punktzahl.

```
{
  "schemaVersion": "3.5",
  "evaluationId": "fb90de35-4507-479a-8b57-970290fd5c2c",
  "metadata": {
    "contactId": "badd4896-75f7-43b3-bee6-c617ed3d04cb",
    "accountId": "874551140838",
    "instanceId": "8f753c94-9cd2-4f16-85eb-945f7f0d559a",
    "agentId": "286bcec0-e722-4166-865f-84db80252218",
    "evaluationDefinitionTitle": "Compliance Evaluation Form",
    "evaluator": "jane",
    "evaluationDefinitionId": "15d8fbf1-b4b2-4ace-869b-82714e2f6e3e",
    "evaluationDefinitionVersion": 2,
    "evaluationStartTimestamp": "2025-11-14T17:57:08.649Z",
    "evaluationSubmitTimestamp": "2025-11-14T17:59:29.052Z",
    "score": {
      "percentage": 100
    },
    "creator": "jane.doe@acme.com",
    "autoEvaluated": false,
    "resubmitted": false,
    "evaluationSource": "ASSISTED_BY_AUTOMATION",
    "evaluationType": "CONTACT_EVALUATION",
    "evaluationAcknowledgerComment": "The Acknowledgment comment",
    "evaluationAcknowledgedTimestamp": "2025-12-22T05:20:39.297Z",
    "evaluationAcknowledgedByUserName": "john",
    "evaluationAcknowledgedByUserId": "286bcec0-e722-4166-865f-84db80252218"
  },
  "sections": [
    {
      "sectionRefId": "s1a1b58d6",
      "sectionTitle": "The title of the section",
      "notes": "Section note",
      "score": {
        "percentage": 100
      }
    },
    {
      "sectionRefId": "s46661c49",
      "sectionTitle": "The title of the subsection",
      "parentSectionRefId": "s1a1b58d6",
      "score": {
        "percentage": 100
      }
    }
  ],
  "questions": [
    {
      "questionRefId": "q570b206a",
      "sectionRefId": "s46661c49",
      "questionType": "NUMERIC",
      "questionText": "How do you rate the contact between 1 and 10?",
      "answer": {
        "value": "",
        "notes": "Add more information here",
        "metadata": {
          "notApplicable": true
        }
      },
      "score": {
        "notApplicable": true
      }
    },
    {
      "questionRefId": "q73bc5b9d",
      "sectionRefId": "s46661c49",
      "questionType": "SINGLESELECT",
      "questionText": "Did the agent introduce themselves?",
      "answer": {
        "values": [
          {
            "valueText": "Yes",
            "valueRefId": "o6999aa94",
            "selected": true
          },
          {
            "valueText": "No",
            "valueRefId": "o284e4d9e",
            "selected": false
          },
          {
            "valueText": "Maybe",
            "valueRefId": "o1b2f0a14",
            "selected": false
          }
        ],
        "notes": "Add more information here",
        "automation": {
          "status": "SYSTEM_ANSWER",
          "systemSuggestedValue": "Yes"
        },
        "metadata": {
          "notApplicable": false
        }
      },
      "score": {
        "percentage": 100
      }
    },
    {
      "questionRefId": "h89bc7a9t",
      "sectionRefId": "s46661c49",
      "questionType": "SINGLESELECT",
      "questionText": "Did the agent offer a promotion?",
      "answer": {
        "values": [
          {
            "valueText": "Yes",
            "valueRefId": "p7888bb85",
            "selected": false
          },
          {
            "valueText": "No",
            "valueRefId": "p395f5e8f",
            "selected": true
          },
          {
            "valueText": "Maybe",
            "valueRefId": "p2c3g1b25",
            "selected": false
          }
        ],
        "notes": "Add more information here",
        "assistedSuggestion": {
          "value": "No. A promotion was not offered by the agent."
        },
        "metadata": {
          "notApplicable": false
        }
      },
      "score": {
        "percentage": 100
      }
    },
    {
      "questionRefId": "qc2effc9d",
      "sectionRefId": "s46661c49",
      "questionType": "TEXT",
      "questionText": "Describe the outcome.",
      "answer": {
        "value": "Example answer text",
        "notes": "Add more information here",
        "metadata": {
          "notApplicable": false
        }
      },
      "score": {
        "percentage": 50
      }
    }
  ]
}
```

## Definitionen der Metadaten des Bewertungsformulars
<a name="evaluation-form-metadata"></a>

Die folgende Liste beschreibt die Felder im Bewertungsformular.

**evaluationId**  
Eindeutiger Bezeichner für die Kontaktbewertung  
*Typ* – Zeichenfolge  
*Längenbeschränkungen* – Minimale Länge von 1. Die maximale Länge ist 500.

**Metadaten**    
**contactId**  
Die ID des Kontakts in dieser Instance von Amazon Connect.  
*Typ* – Zeichenfolge  
*Längenbeschränkungen* – Minimale Länge 1, maximale Länge 256  
**accountId**  
Die Kennung des AWS Kontos, auf dem die Amazon Connect Connect-Instanz ausgeführt wird.  
*Typ* – Zeichenfolge  
*Längenbeschränkungen* – Einschränkungen: 12 Ziffern  
*Pattern* – `^\d{12}$`  
**instanceId**  
Die Kennung der Amazon-Connect-Instance. Sie [finden die Instance-ID](find-instance-arn.md) im Amazon-Ressourcennamen (ARN) der Instance.  
*Längenbeschränkungen* – Minimale Länge 1, maximale Länge 100  
**agentId**  
Die ID des Kundendienstmitarbeiters, der den Kontakt ausgeführt hat.  
*Typ* – Zeichenfolge  
*Längenbeschränkungen* – Minimale Länge 1, maximale Länge 500  
**evaluationDefinitionTitle**  
Der Titel des Bewertungsformulars.  
*Typ* – Zeichenfolge  
*Längenbeschränkungen* – Minimale Länge 1, maximale Länge 128  
**evaluator**  
Name des Benutzers, der die Bewertung zuletzt aktualisiert hat.  
*Typ* – Zeichenfolge  
**evaluationDefinitionId**  
Die eindeutige ID für das Bewertungsformular.  
*Typ* – Zeichenfolge  
*Längenbeschränkungen* – Minimale Länge 1, maximale Länge 500  
**evaluationDefinitionVersion**  
Die Version des Bewertungsformulars.  
*Typ* – Ganzzahl  
*Gültiger Bereich* – Mindestwert 1  
**evaluationStartTimestamp**  
Der Erstellungszeitstempel der Bewertung.  
*Typ* – Zeitstempel  
*Beispiel* — 2025-11-14T 17:57:08.649 Z  
**evaluationSubmitTimestamp**  
Der Zeitstempel der Einreichung der Bewertung.  
*Typ* – Zeitstempel  
*Beispiel* — 2025-11-14T 17:59:29.052 Z  
**score**  
Die Punktzahl der Bewertung.  
**creator**  
 Die Entität, die die Bewertung anfänglich erstellt hat (im Gegensatz zu „evaluator“, was die Entität darstellt, die die Bewertung zuletzt eingereicht hat). Wenn der Anruf von der Admin-Website aus getätigt wird, enthält er den Benutzernamen. Amazon Connect Wenn der Anruf von der API kommt, enthält dies den ARN des Aufrufers.   
*Typ* – Zeichenfolge  
**autoEvaluated **  
 Gibt an, ob die Bewertung mithilfe vollautomatischer Bewertungen eingereicht wurde.  
*Typ* – Boolescher Wert  
**resubmitted **  
 Gibt an, ob die Bewertung erneut eingereicht (d. h. bearbeitet und wieder eingereicht) wurde.  
*Typ* – Boolescher Wert  
**evaluationSource **  
Die Art der Antwortquelle für die Bewertung.  
*Typ* – Zeichenfolge  
Zulässige Werte:  
+ `ASSISTED_BY_AUTOMATION` – gibt an, dass zur Beantwortung einiger Fragen die [Fragenautomatisierung](create-evaluation-forms.md#step-automate) verwendet wurde.
+ `MANUAL` – gibt an, dass die Bewertung manuell durchgeführt wurde.
+ `AUTOMATED` – gibt an, dass die Bewertung mithilfe vollautomatischer Bewertungen eingereicht wurde (siehe Feld „autoEvaluated“).  
**Art der Bewertung**  
Die Art der Bewertung.  
*Typ* – Zeichenfolge  
Zulässige Werte:  
+ `CONTACT_EVALUATION`- Bewertung eines Kontakts.  
**calibrationSessionId**  
Die Kennung der Kalibrierungssitzung, die mit dieser Bewertung verknüpft ist.  
*Typ* – Zeichenfolge  
*Längenbeschränkungen* – Minimale Länge 1, maximale Länge 500  
**evaluatedParticipantId**  
Die Kennung des Teilnehmers, der bewertet wird.  
*Typ* – Zeichenfolge  
*Längenbeschränkungen* – Minimale Länge 1, maximale Länge 256  
**evaluatedParticipantRole**  
Die Rolle des Teilnehmers, der bewertet wird.  
*Typ* – Zeichenfolge  
Zulässige Werte:  
+ `AGENT`- der Agent-Teilnehmer.
+ `CUSTOMER`- der Teilnehmer des Kunden.
+ `SYSTEM`- der Systemteilnehmer.  
**acknowledgerComment**  
Kommentar des Benutzers, der die Bewertung bestätigt hat.  
*Typ* – Zeichenfolge  
*Längenbeschränkungen* – Minimale Länge 0, maximale Länge 3 072  
**evaluationAcknowledgedByUserId**  
Die ID der Person, die die Bewertung bestätigt hat.  
*Typ* – Zeichenfolge  
*Längenbeschränkungen* – Minimale Länge 1, maximale Länge 500  
**evaluationAcknowledgedByUserName**  
Der Name der Person, die die Bewertung bestätigt hat.  
*Typ* – Zeichenfolge  
**evaluationAcknowledgedTimestamp**  
Der Bestätigungszeitstempel der Bewertung.   
*Typ* – Zeitstempel  
*Beispiel* — 2025-12-24T 15:45:56.662 Z

**sections**  
Array der Abschnitte der Bewertung.    
**sectionRefId**  
Die ID des Abschnitts. Eine ID muss innerhalb des Bewertungsformulars eindeutig sein.   
*Typ* – Zeichenfolge  
*Längenbeschränkungen* – Minimale Länge 1, maximale Länge 40  
**parentSectionRefId**  
Die ID des übergeordneten Abschnitts.  
*Typ* – Zeichenfolge  
*Längenbeschränkungen* – Minimale Länge 1, maximale Länge 40  
**sectionTitle**  
Der Titel des Abschnitts.  
*Typ* – Zeichenfolge  
*Längenbeschränkungen* – Einschränkungen: minimale Länge 0, maximale Länge 128  
**notes**  
Die Notizen, die für den Abschnitt erfasst wurden.  
*Typ* – Zeichenfolge  
*Längenbeschränkungen* – Minimale Länge 0, maximale Länge 3 072  
Für Notizen gelten die folgenden Einschränkungen:  
+ Einzelne Notizen haben ein Limit von 3 072 Zeichen. 
+ Die kombinierten Notizen in einer Bewertung haben ein Limit von *N* x 1 024 Zeichen, wobei *N* die Anzahl der Fragen in der Bewertung ist.  
**score**  
Die Punktzahl für den Abschnitt.    
**percentage**  
Der Prozentsatz der Punktzahl für ein Element in einer Kontaktbewertung.  
*Typ*: Double  
*Gültiger Bereich* – Mindestwert von 0, Höchstwert von 100  
**automaticFail**  
Das Flag, das das Element als automatisches Fehlschlagen kennzeichnet. Wenn für das Element oder ein untergeordnetes Element eine „Automatisches Fehlschlagen“-Antwort vorhanden ist, ist dieses Flag „true“.  
*Typ* – Boolescher Wert  
**notApplicable**  
Das Flag, das das Element als automatisches Fehlschlagen kennzeichnet. Wenn für das Element oder ein untergeordnetes Element eine „Automatisches Fehlschlagen“-Antwort vorhanden ist, ist dieses Flag „true“.  
*Typ* – Boolescher Wert

**Fragen**  
Array der Fragen der Bewertung.    
**questionRefId**  
Die ID der Frage. Eine ID muss innerhalb des Bewertungsformulars eindeutig sein.  
*Typ* – Zeichenfolge  
*Längenbeschränkungen* – Minimale Länge 1, maximale Länge 40  
**sectionRefId**  
Die ID des übergeordneten Abschnitts.   
*Typ* – Zeichenfolge  
*Längenbeschränkungen* – Minimale Länge 1, maximale Länge 40  
**questionType**  
Der Typ der Frage.  
*Typ* — StrThe Kombinierte Notizen in einer Bewertung haben ein Limit von *N* x 1024 Zeichen, wobei *N* für die Anzahl der Fragen in der Bewertung steht.  
*Zulässige Werte* – `TEXT | SINGLESELECT | NUMERIC`  
**questionText**  
Der Titel der Frage.  
*Typ* – Zeichenfolge  
*Längenbeschränkungen* – Minimale Länge 0, maximale Länge 350  
**answer**  
Die Antwort auf die Frage.    
**value**  
Der string/numeric Wert für eine Antwort in einer Kontaktevaluierung.  
*Typ* – Zeichenfolge/Double  
*Längenbeschränkungen* – Zeichenfolge: minimale Länge 0, maximale Länge 128  
**notes**  
Die Notizen, die für den Abschnitt erfasst wurden.  
*Typ* – Zeichenfolge  
*Längenbeschränkungen* – Minimale Länge von 0. Die maximale Länge ist 3 072.  
Für Notizen gelten zwei Zeichenbegrenzungen. Einzelne Notizen haben ein Limit von 3 072 Zeichen. Die kombinierten Notizen in einer Bewertung haben ein Limit von N x 1 024 Zeichen, wobei N die Anzahl der Fragen in der Bewertung ist.  
**Metadaten**  
**notApplicable **  
Flag, das die Frage als nicht zutreffend kennzeichnet.  
*Typ* – Boolescher Wert  
**assistedSuggestion**  
Von [generativer KI](generative-ai-performance-evaluations.md) vorgeschlagene Antwort.  
*Typ* – Zeichenfolge  
**-Automatisierung**    
**Status**  
Der Status der automatisierten Antwort.  
*Typ* – Zeichenfolge  
*Zulässige Werte* – `UNAVAILABLE | SYSTEM_ANSWER | OVERRIDDEN_ANSWER`  
**systemSuggestedValue**  
Die Zeichenfolge/der numerische Wert für eine automatisierte Antwort in einer Kontaktbewertung.  
*Typ* – Zeichenfolge oder Double  
*Längenbeschränkungen* – Zeichenfolge: minimale Länge 0, maximale Länge 128  
**score**  
[score](#score) für die Frage.  
+ automaticFail – Das Flag, das das Element als kritisch für das Formular kennzeichnet. Das gesamte Formular schlägt fehl (markiert mit einer Punktzahl von 0), wenn das Element fehlschlägt. Wenn für das Element oder ein untergeordnetes Element eine „Automatisches Fehlschlagen“-Antwort vorhanden ist, ist dieses Flag „true“ und das gesamte Formular schlägt fehl.

  *Typ* – Boolescher Wert
+ notApplicable – Das Flag, das das Element als nicht relevant für die Bewertung kennzeichnet, d. h. es wird von der Bewertungsberechnung ausgeschlossen.

  *Typ* – Boolescher Wert

## Beispiel für eine exportierte Bewertung
<a name="exported-evaluation"></a>

Das folgende Beispiel zeigt eine typische exportierte Bewertung.

```
{
  "schemaVersion": "3.5",
  "evaluationId": "fb90de35-4507-479a-8b57-970290fd5c2c",
  "metadata": {
    "accountId": "874551140838",
    "instanceId": "8f753c94-9cd2-4f16-85eb-945f7f0d559a",
    "contactId": "badd4896-75f7-43b3-bee6-c617ed3d04cb",
    "agentId": "286bcec0-e722-4166-865f-84db80252218",
    "evaluationDefinitionTitle": "Legal Compliance Evaluation Form",
    "evaluator": "jane",
    "evaluationDefinitionId": "15d8fbf1-b4b2-4ace-869b-82714e2f6e3e",
    "evaluationDefinitionVersion": 2,
    "evaluationStartTimestamp": "2022-11-14T17:57:08.649Z",
    "evaluationSubmitTimestamp": "2022-11-14T17:59:29.052Z",
    "score": {
      "percentage": 85
    },
    "autoEvaluated": false,
    "creator": "john",
    "resubmitted": false,
    "evaluationSource": "ASSISTED_BY_AUTOMATION",
    "evaluationType": "CONTACT_EVALUATION",
    "calibrationSessionId": "a1b2c3d4-e5f6-7890-abcd-ef1234567890",
    "evaluationAcknowledgedByUserId": "286bcec0-e722-4166-865f-84db80252218",
    "evaluationAcknowledgedByUserName": "mike",
    "evaluationAcknowledgedTimestamp": "2022-12-24T15:45:56.662Z",
    "evaluationAcknowledgerComment": "Manager walked through the evaluation during coaching",
    "evaluatedParticipantId": "participant-123",
    "evaluatedParticipantRole": "AGENT"
  },
  "sections": [
    {
      "sectionRefId": "s1a1b58d6",
      "sectionTitle": "Communication Skills",
      "notes": "Overall communication was professional",
      "score": {
        "percentage": 90
      }
    },
    {
      "sectionRefId": "s46661c49",
      "sectionTitle": "Greeting and Introduction",
      "parentSectionRefId": "s1a1b58d6",
      "notes": "Agent followed proper greeting protocol",
      "score": {
        "percentage": 100
      }
    }
  ],
  "questions": [
    {
      "questionRefId": "q570b206a",
      "sectionRefId": "s46661c49",
      "questionType": "NUMERIC",
      "questionText": "How many times did agent interrupt the customer",
      "answer": {
        "value": "2",
        "notes": "Interruptions were minimal and appropriate",
        "metadata": {
          "notApplicable": false,
          "automation": {
            "status": "OVERRIDDEN_ANSWER",
            "systemSuggestedValue": "3"
          }
        }
      },
      "score": {
        "percentage": 80
      }
    },
    {
      "questionRefId": "q73bc5b9d",
      "sectionRefId": "s46661c49",
      "questionType": "SINGLESELECT",
      "questionText": "Did the agent introduce themselves?",
      "answer": {
        "values": [
          {
            "valueText": "Yes",
            "valueRefId": "o6999aa94",
            "selected": true
          },
          {
            "valueText": "No",
            "valueRefId": "o284e4d9e",
            "selected": false
          },
          {
            "valueText": "N/A",
            "valueRefId": "system_default_null_value",
            "selected": false
          }
        ],
        "notes": "Agent provided clear introduction with name and department",
        "metadata": {
          "notApplicable": false,
          "assistedSuggestion": {
            "value": "The agent introduced themselves at the beginning of the call."
          }
        }
      },
      "score": {
        "percentage": 100
      }
    },
    {
      "questionRefId": "h89bc7a9t",
      "sectionRefId": "s46661c49",
      "questionType": "SINGLESELECT",
      "questionText": "Did the agent ask for consent to perform a credit check",
      "answer": {
        "values": [
          {
            "valueText": "Yes",
            "valueRefId": "o6999aa94",
            "selected": false
          },
          {
            "valueText": "No",
            "valueRefId": "o284e4d9e",
            "selected": true
          },
          {
            "valueText": "N/A",
            "valueRefId": "system_default_null_value",
            "selected": false
          }
        ],
        "notes": "Agent failed to obtain consent before credit check",
        "metadata": {
          "notApplicable": false
        }
      },
      "score": {
        "percentage": 0,
        "automaticFail": true
      }
    },
    {
      "questionRefId": "qc2effc9d",
      "sectionRefId": "s46661c49",
      "questionType": "MULTISELECT",
      "questionText": "What topics were discussed during the call",
      "answer": {
        "values": [
          {
            "valueText": "Account balance",
            "valueRefId": "topic_balance",
            "selected": true
          },
          {
            "valueText": "Payment options",
            "valueRefId": "topic_payment",
            "selected": true
          },
          {
            "valueText": "Account closure",
            "valueRefId": "topic_closure",
            "selected": false
          }
        ],
        "notes": "Customer inquired about balance and payment plans",
        "metadata": {
          "notApplicable": false
        }
      },
      "score": {
        "notApplicable": true
      }
    },
    {
      "questionRefId": "q8a9b0c1d",
      "sectionRefId": "s46661c49",
      "questionType": "TEXT",
      "questionText": "What was your general impression about the customer's satisfaction",
      "answer": {
        "value": "The customer seemed satisfied with the resolution and thanked the agent",
        "notes": "Positive customer sentiment throughout the call",
        "metadata": {
          "notApplicable": false
        }
      },
      "score": {
        "notApplicable": true
      }
    },
    {
      "questionRefId": "q2b3c4d5e",
      "sectionRefId": "s46661c49",
      "questionType": "DATETIME",
      "questionText": "What time was the follow-up scheduled",
      "answer": {
        "value": "2024-04-16T14:30:00+01:00",
        "notes": "Follow-up appointment confirmed with customer",
        "metadata": {
          "notApplicable": false
        }
      },
      "score": {
        "notApplicable": true
      }
    }
  ]
}
```