

Die vorliegende Übersetzung wurde maschinell erstellt. Im Falle eines Konflikts oder eines Widerspruchs zwischen dieser übersetzten Fassung und der englischen Fassung (einschließlich infolge von Verzögerungen bei der Übersetzung) ist die englische Fassung maßgeblich.

# Rufen Sie den Analyseprozessor und die Ausgabeziele für das Amazon Chime SDK auf
<a name="call-analytics-processor-and-output-destinations"></a>

 Sie können eindeutige Elemente nur einmal pro Media Insights-Pipeline-Konfiguration angeben. Alle Prozessoren und Senken müssen sich in demselben AWS Konto befinden, und Sie müssen sie in derselben AWS Region erstellen wie der Endpunkt, den Sie aufrufen. Wenn Sie beispielsweise den `us-east-1` Endpunkt für Amazon Chime SDK Media Pipelines verwenden, können Sie keinen Kinesis Data Stream aus der Region übergeben. `us-west-2` 

Erweitern Sie jeden Abschnitt, um Informationen zu den einzelnen Zielen zu erhalten.

## Ziele des Amazon Transcribe Call Analytics-Prozessors
<a name="amazon-transcribe-call-analytics-processor"></a>

Unterstützte Spülbecken:. `KinesisDataStreamSink`

Sie können diesen Prozessor nicht mit einem Amazon Transcribe Transcribe-Prozessor kombinieren. Weitere Informationen zu Amazon Transcribe Call Analytics finden Sie unter [Anrufanalysen in Echtzeit](https://docs.aws.amazon.com/transcribe/latest/dg/call-analytics-streaming.html) im *Amazon Transcribe* Developer Guide. Wenn Sie die [Analyse nach dem Anruf](https://docs.aws.amazon.com/transcribe/latest/dg/tca-post-call.html) aktivieren, indem Sie sie `PostCallAnalyticsSettings` in den `AmazonTranscribeCallAnalyticsProcessorConfiguration` API-Aufruf aufnehmen, erhalten Sie Artefakte am angegebenen Amazon S3 S3-Speicherort, wenn die Media Insights-Pipeline stoppt und die Verarbeitung abgeschlossen ist.

**Anmerkung**  
Wenn Sie die Pipeline für mehr als 35 Sekunden anhalten und dann fortsetzen, werden Artefakte nach dem Aufrufen in separaten Dateien mit unterschiedlichen Sitzungen IDs im Amazon S3 S3-Bucket generiert.

Zu den Artefakten nach dem Anruf gehören eine JSON-Analysedatei und eine WAV- oder Opus-Datei für Audioaufnahmen. Die Amazon S3 S3-Bucket-URL für geschwärzte (wenn Sie die Inhaltsschwärzung aktivieren) und nicht geschwärzte Aufzeichnungsdateien wird einmal für jede Amazon Transcribe Call Analytics-Post-Call-Sitzung als Teil des Metadatenbereichs an den Kinesis Data Stream gesendet. `onetimeMetadata`

Anrufanalysen mit Amazon Transcribe Call Analytics verwenden Audiodaten, die vom Kinesis Video Stream eingegeben werden.
+ Unterstützte Medienkodierung: PCM-signiertes 16-Bit-Little-Endian-Audio.
+ Unterstützte Medien-Sampleraten: Zwischen 8.000 Hz und 48.000 Hz.

`StreamConfiguration`Eingabe für einen Amazon Transcribe Analytics-Prozess:
+ Sie müssen das `KinesisVideoStreamArn` für jeden Stream angeben.
+ (Optional) Das KVS `FragmentNumber` startet eine Anrufanalyseaufgabe mit dem Chunk nach einem bestimmten Fragment. Falls nicht angegeben, verwendet es den neuesten Teil des Kinesis-Videostreams.
+ Das `StreamChannelDefinition` definiert, wer spricht. Amazon Transcribe Call Analytics erfordert Zweikanal-Audio. Sie müssen angeben, welcher Lautsprecher sich auf welchem Kanal befindet, wenn Sie die API aufrufen. [https://docs.aws.amazon.com/chime-sdk/latest/APIReference/API_media-pipelines-chime_CreateMediaInsightsPipeline.html](https://docs.aws.amazon.com/chime-sdk/latest/APIReference/API_media-pipelines-chime_CreateMediaInsightsPipeline.html) Wenn Ihr Agent beispielsweise zuerst spricht, setzen Sie auf, `ChannelId` `0` um den ersten Kanal anzuzeigen, und auf, `ParticipantRole` `AGENT` um anzuzeigen, dass der Agent spricht.

**Anmerkung**  
Wenn Sie einen Voice Connector verwenden, um einen `MediaInsightsPipeline` mit einem Amazon Transcribe Anrufanalyseprozessor zu erstellen, ist das Audio des Voice Connector-Kontos `AGENT` und das PSTN-Audio für den. `CUSTOMER` `ParticipantRole`  
Für Voice Connector SIPREC verlassen wir uns auf die SIPREC-Metadaten. In den meisten Fällen wird das Stream-Label mit dem niedrigsten lexikografischen Wert als das Stream-Label angesehen. `AGENT`

Das folgende Beispiel zeigt den Kinesis Video Stream-Eingang für einen Zweikanal-Audiostream.

```
"StreamChannelDefinition" : {
    "NumberOfChannels" : 2
    "ChannelDefinitions": [
        {
            "ChannelId": 0,
            "ParticipantRole": "AGENT"
        },
        {
            "ChannelId": 1,
            "ParticipantRole": "CUSTOMER"
        }
    ]
}
```

 Im Gegensatz dazu zeigt das folgende Beispiel zwei Monoeingänge von zwei verschiedenen Kinesis-Videostreams. 

```
KVS-1:
    "StreamChannelDefinition" : {
        "NumberOfChannels"  : 1
        "ChannelDefinitions": [
            {
                "ChannelId": 0,
               "ParticipantRole": "AGENT"
            }
        ]
    }
KVS-2:
    "StreamChannelDefinition" : {
        "NumberOfChannels"  : 1
        "ChannelDefinitions": [
            {
                "ChannelId": 1,
               "ParticipantRole": "CUSTOMER"
            }
        ]
    }
```

## Ausgabe der Amazon Transcribe Transcribe-Anrufanalysen
<a name="amazon-transcribe-call-analytics-output"></a>

 Jeder Amazon Transcribe Transcribe-Datensatz enthält ein `UtteranceEvent` oder ein`CategoryEvent`, aber nicht beides. `CategoryEvents`habe ein `detail-type` von. `TranscribeCallAnalyticsCategoryEvent` 

Das folgende Beispiel zeigt das einmalige Metadaten-Ausgabeformat für Amazon Transcribe.

```
{
    "time": "string", // ISO8601 format
    "service-type": "CallAnalytics",
    "detail-type": "CallAnalyticsMetadata",
    "mediaInsightsPipelineId": "string",
    "metadata": "string" // JSON encoded string of the metadata object
}

// metadata object
{
    "voiceConnectorId": "string",
    "callId": "string",
    "transactionId": "string",
    "fromNumber": "string",
    "toNumber": "string",
    "direction": "string",
    "oneTimeMetadata": "string" // JSON encoded string of oneTimeMetadata object
}
 
// onetimeMetadata object
{
    "inviteHeaders": "string", // JSON encoded string of SIP Invite headers key-value pair
    "siprecMetadata": "string", // siprec metadata in XML 
    "siprecMetadataJson": "string", // siprec metadata in JSON (converted from above XML) 
    
    // If PostcallSettings are enabled for Amazon Transcribe Call Analytics
    "s3RecordingUrl": "string", 
    "s3RecordingUrlRedacted": "string"
}
 
// inviteHeaders object
{
    "string": "string"
}
```

 Das folgende Beispiel zeigt das Amazon Transcribe Call Analytics-Ausgabeformat. 

```
{
    "time": "string", // ISO8601 format
    "service-type": "CallAnalytics",
    "detail-type": "TranscribeCallAnalytics",
    "mediaInsightsPipelineId": "string",
    "metadata": {
        "voiceConnectorId": "string",
        "callId": "string",
        "transactionId": "string",
        "fromNumber": "string",
        "toNumber": "string",
        "direction": "string"
    },
    "UtteranceEvent": {
        "UtteranceId": "string",
        "ParticipantRole": "string",
        "IsPartial": boolean,
        "BeginOffsetMillis": number,
        "EndOffsetMillis": number,
        "Transcript": "string",
        "Sentiment": "string",
        "Items": [{
            "Content": "string",
            "Confidence": number,
            "VocabularyFilterMatch": boolean,
            "Stable": boolean,
            "ItemType": "string",
            "BeginOffsetMillis": number,
            "EndOffsetMillis": number,
        }, ]
        "Entities": [{
            "Content": "string",
            "Confidence": number,
            "Category": "string", // Only PII is supported currently
            "Type": "string",
            "BeginOffset": number,
            "EndOffset": number,
        }, ],
        "IssuesDetected": [{
            "CharacterOffsets": {
                "Begin": number,
                "End": number
            }
        }]
    },
    "CategoryEvent": {
        "MatchedCategories": ["string"],
        "MatchedDetails": {
            "string": {
                "TimestampRanges": [{
                    "BeginOffsetMillis": number,
                    "EndOffsetMillis": number
                }]
            }
        }
    }
}
```

## Amazon Chime SDK Voice Connector-Streaming aktualisiert Metadaten
<a name="cvc-stream-update-metadata"></a>

Wenn die Konfiguration der Anrufanalyse mit einem Amazon Chime SDK Voice Connector verknüpft ist, wird die folgende Payload für das Voice Connector-Update gesendet, wenn es ein [Voice Connector-Streaming-Update](https://docs.aws.amazon.com/chime-sdk/latest/ag/automating-chime-with-cloudwatch-events.html) gibt.

Das folgende Beispiel zeigt ein Update-Metadatenformat für den Amazon Transcribe Transcribe-Prozessor und den Transcribe Call Analytics-Prozessor.

```
{
    "time": "string", // ISO8601 format
    "service-type": "CallAnalytics",
    "detail-type": "CallAnalyticsMetadata",
    "callevent-type": "Update",
    "metadata": "string" // JSON encoded string of the metadata object
}

// metadata object
{
    "voiceConnectorId": "string",
    "callId": "string",
    "transactionId": "string",
    "fromNumber": "string",
    "toNumber": "string",
    "direction": "string",
    "oneTimeMetadata": "string" // JSON encoded string of oneTimeMetadata object
}
 
// onetimeMetadata object
{
    "sipHeaders": "string", // JSON encoded string of SIP Invite headers key-value pair
    "siprecMetadata": "string", // siprec metadata in XML 
    "siprecMetadataJson": "string" // siprec metadata in JSON (converted from above XML) 
}
 
// sipHeaders object
{
    "string": "string"
}
```

Das folgende Beispiel zeigt ein aktualisiertes Metadatenformat für Call Analytics Amazon S3 Recording.

```
{
    "time": "string", // ISO8601 format
    "service-type": "CallAnalytics",
    "detail-type": "Recording",
    "callevent-type": "Update",
    "metadata": "string" // JSON encoded string of the metadata object
}

// metadata object
{
    "voiceConnectorId": "string",
    "callId": "string",
    "transactionId": "string",
    "fromNumber": "string",
    "toNumber": "string",
    "direction": "string",
    "oneTimeMetadata": "string" // JSON encoded in string of oneTimeMetadata object
}

// onetimeMetadata object
{
    "sipHeaders": "string", // JSON encoded string of SIP Invite headers key-value pair
    "siprecMetadata": "string", // siprec metadata in XML 
    "siprecMetadataJson": "string" // siprec metadata in JSON (converted from above XML) 
}

// sipHeaders object
{
    "string": "string"
}
```

## Metadaten zur SIP-Anrufaufzeichnung
<a name="sip-update-metadata"></a>

Die folgenden Beispiele zeigen die Metadaten für die Aufzeichnung eines SIP-Anrufs zwischen zwei Personen, Alice und Bob. Beide Teilnehmer senden und empfangen Audio und Video. Der Einfachheit halber enthält das Beispiel nur Ausschnitte von SIP und SDP, und SRC zeichnet die Streams jedes Teilnehmers auf SRS auf, ohne sie zu mischen.

```
INVITE sip:recorder@example.com SIP/2.0
   Via: SIP/2.0/TCP src.example.com;branch=z9hG4bKdf6b622b648d9
   From: <sip:2000@example.com>;tag=35e195d2-947d-4585-946f-09839247
   To: <sip:recorder@example.com>
   Call-ID: d253c800-b0d1ea39-4a7dd-3f0e20a
   Session-ID: ab30317f1a784dc48ff824d0d3715d86
    ;remote=00000000000000000000000000000000
   CSeq: 101 INVITE
   Max-Forwards: 70
   Require: siprec
   Accept: application/sdp, application/rs-metadata,
   application/rs-metadata-request
   Contact: <sip:2000@src.example.com>;+sip.src
   Content-Type: multipart/mixed;boundary=boundary
   Content-Length: [length]

   Content-Type: application/SDP
   ...
   m=audio 49170 RTP/AVP 0
   a=rtpmap:0 PCMU/8000
   a=label:96
   a=sendonly
   ...
   m=video 49174 RTP/AVPF 96
   a=rtpmap:96 H.264/90000
   a=label:97
   a=sendonly
   ...
   m=audio 51372 RTP/AVP 0
   a=rtpmap:0 PCMU/8000
   a=label:98
   a=sendonly
   ...
   m=video 49176 RTP/AVPF 96
   a=rtpmap:96 H.264/90000
   a=label:99
   a=sendonly
   ....

Content-Type: application/rs-metadata
Content-Disposition: recording-session

<?xml version="1.0" encoding="UTF-8"?>
<recording xmlns='urn:ietf:params:xml:ns:recording:1'>
  <datamode>complete</datamode>
        <group group_id="7+OTCyoxTmqmqyA/1weDAg==">
                <associate-time>2010-12-16T23:41:07Z</associate-time>
                <!-- Standardized extension -->
                <call-center xmlns='urn:ietf:params:xml:ns:callcenter'>
                        <supervisor>sip:alice@atlanta.com</supervisor>
                </call-center>
                <mydata xmlns='http://example.com/my'>
                        <structure>structure!</structure>
                        <whatever>structure</whatever>
                </mydata>
        </group>
        <session session_id="hVpd7YQgRW2nD22h7q60JQ==">
                <sipSessionID>ab30317f1a784dc48ff824d0d3715d86;
                                      remote=47755a9de7794ba387653f2099600ef2</sipSessionID>
                <group-ref>7+OTCyoxTmqmqyA/1weDAg==
                </group-ref>
                <!-- Standardized extension -->
                <mydata xmlns='http://example.com/my'>
                        <structure>FOO!</structure>
                        <whatever>bar</whatever>
                </mydata>
        </session>
        <participant
              participant_id="srfBElmCRp2QB23b7Mpk0w==">
                <nameID aor="sip:alice@atlanta.com">
                        <naSRCme xml:lang="it">Alice</name>
                </nameID>
                <!-- Standardized extension -->
                <mydata xmlns='http://example.com/my'>
                        <structure>FOO!</structure>
                        <whatever>bar</whatever>
                </mydata>
        </participant>
        <participant
               participant_id="zSfPoSvdSDCmU3A3TRDxAw==">
                <nameID aor="sip:bob@biloxy.com">
                        <name xml:lang="it">Bob</name>
                </nameID>
                <!-- Standardized extension -->
                <mydata xmlns='http://example.com/my'>
                        <structure>FOO!</structure>
                        <whatever>bar</whatever>
                </mydata>
        </participant>
        <stream stream_id="UAAMm5GRQKSCMVvLyl4rFw=="
               session_id="hVpd7YQgRW2nD22h7q60JQ==">
                <label>96</label>
        </stream>
        <stream stream_id="i1Pz3to5hGk8fuXl+PbwCw=="
               session_id="hVpd7YQgRW2nD22h7q60JQ==">
                <label>97</label>
        </stream>
        <stream stream_id="8zc6e0lYTlWIINA6GR+3ag=="
               session_id="hVpd7YQgRW2nD22h7q60JQ==">
                <label>98</label>
        </stream>
        <stream stream_id="EiXGlc+4TruqqoDaNE76ag=="
               session_id="hVpd7YQgRW2nD22h7q60JQ==">
                <label>99</label>
        </stream>
        <sessionrecordingassoc session_id="hVpd7YQgRW2nD22h7q60JQ==">
            <associate-time>2010-12-16T23:41:07Z</associate-time>
        </sessionrecordingassoc>
        <participantsessionassoc
              participant_id="srfBElmCRp2QB23b7Mpk0w=="
              session_id="hVpd7YQgRW2nD22h7q60JQ==">
                <associate-time>2010-12-16T23:41:07Z</associate-time>
        </participantsessionassoc>
        <participantsessionassoc
               participant_id="zSfPoSvdSDCmU3A3TRDxAw=="
               session_id="hVpd7YQgRW2nD22h7q60JQ==">
                <associate-time>2010-12-16T23:41:07Z</associate-time>
        </participantsessionassoc>
        <participantstreamassoc
              participant_id="srfBElmCRp2QB23b7Mpk0w==">
                <send>i1Pz3to5hGk8fuXl+PbwCw==</send>
                <send>UAAMm5GRQKSCMVvLyl4rFw==</send>
                <recv>8zc6e0lYTlWIINA6GR+3ag==</recv>
                <recv>EiXGlc+4TruqqoDaNE76ag==</recv>
        </participantstreamassoc>
        <participantstreamassoc
               participant_id="zSfPoSvdSDCmU3A3TRDxAw==">
                <send>8zc6e0lYTlWIINA6GR+3ag==</send>
                <send>EiXGlc+4TruqqoDaNE76ag==</send>
                <recv>UAAMm5GRQKSCMVvLyl4rFw==</recv>
                <recv>i1Pz3to5hGk8fuXl+PbwCw==</recv>
        </participantstreamassoc>
</recording>
```

Das folgende Beispiel zeigt die aktualisierten Metadaten, wenn ein Gesprächsteilnehmer den anderen in die Warteschleife setzt. In diesem Fall empfängt es `participant_id srfBElmCRp2QB23b7Mpk0w==` nur Medienstreams und sendet keine Medien, sodass das `send` XML-Element weggelassen wird. `participant_id zSfPoSvdSDCmU3A3TRDxAw==`Sendet dagegen Medien an den anderen Teilnehmer, empfängt aber keine Medien von diesem, sodass das `recv` XML-Element weggelassen wird.

```
INVITE sip:recorder@example.com SIP/2.0
            Via: SIP/2.0/TCP src.example.com;branch=z9hG4bKdf6b622b648d9
      From: <sip:2000@example.com>;tag=35e195d2-947d-4585-946f-09839247
      To: <sip:recorder@example.com>
      Call-ID: d253c800-b0d1ea39-4a7dd-3f0e20a
      Session-ID: ab30317f1a784dc48ff824d0d3715d86
       ;remote=f81d4fae7dec11d0a76500a0c91e6bf6
      CSeq: 101 INVITE
      Max-Forwards: 70
      Require: siprec
      Accept: application/sdp, application/rs-metadata,
      application/rs-metadata-request
      Contact: <sip:2000@src.example.com>;+sip.src
      Content-Type: multipart/mixed;boundary=foobar
      Content-Length: [length]

      Content-Type: application/SDP
      ...
      m=audio 49170 RTP/AVP 0
      a=rtpmap:0 PCMU/8000
      a=label:96
      a=sendonly
      ...
      m=video 49174 RTP/AVPF 96
      a=rtpmap:96 H.264/90000
      a=label:97
      a=sendonly
      ...
      m=audio 51372 RTP/AVP 0
      a=rtpmap:0 PCMU/8000
      a=label:98
      a=sendonly
      ...
      m=video 49176 RTP/AVPF 96
      a=rtpmap:96 H.264/90000
      a=label:99
      a=sendonly
      ....

   Content-Type: application/rs-metadata
   Content-Disposition: recording-session

      <?xml version="1.0" encoding="UTF-8"?>
        <recording xmlns='urn:ietf:params:xml:ns:recording:1'>
          <datamode>partial</datamode>
            <participantstreamassoc
             participant_id="srfBElmCRp2QB23b7Mpk0w==">
             <recv>8zc6e0lYTlWIINA6GR+3ag==</recv>
             <recv>EiXGlc+4TruqqoDaNE76ag==</recv>
            </participantstreamassoc>
            <participantstreamassoc
             participant_id="zSfPoSvdSDCmU3A3TRDxAw==">
              <send>8zc6e0lYTlWIINA6GR+3ag==</send>
              <send>EiXGlc+4TruqqoDaNE76ag==</send>
             </participantstreamassoc>
           </recording>
```

Das folgende Beispiel zeigt die Aktualisierung der Metadaten, wenn der Anruf wieder aufgenommen wird. Die Nutzlast enthält jetzt die `recv` XML-Elemente `send` und.

```
INVITE sip:recorder@example.com SIP/2.0
      Via: SIP/2.0/TCP src.example.com;branch=z9hG4bKdf6b622b648d9
      From: <sip:2000@example.com>;tag=35e195d2-947d-4585-946f-09839247
      To: <sip:recorder@example.com>
      Call-ID: d253c800-b0d1ea39-4a7dd-3f0e20a
      Session-ID: ab30317f1a784dc48ff824d0d3715d86
       ;remote=f81d4fae7dec11d0a76500a0c91e6bf6
      CSeq: 101 INVITE
      Max-Forwards: 70
      Require: siprec
      Accept: application/sdp, application/rs-metadata,
      application/rs-metadata-request
      Contact: <sip:2000@src.example.com>;+sip.src
      Content-Type: multipart/mixed;boundary=foobar
      Content-Length: [length]

      Content-Type: application/SDP
      ...
      m=audio 49170 RTP/AVP 0
      a=rtpmap:0 PCMU/8000
      a=label:96
      a=sendonly
      ...
      m=video 49174 RTP/AVPF 96
      a=rtpmap:96 H.264/90000
      a=label:97
      a=sendonly
      ...
      m=audio 51372 RTP/AVP 0
      a=rtpmap:0 PCMU/8000
      a=label:98
      a=sendonly
      ...
      m=video 49176 RTP/AVPF 96
      a=rtpmap:96 H.264/90000
      a=label:99
      a=sendonly
      ....
    
   Content-Type: application/rs-metadata
   Content-Disposition: recording-session

      <?xml version="1.0" encoding="UTF-8"?>
        <recording xmlns='urn:ietf:params:xml:ns:recording:1'>
          <datamode>partial</datamode>
            <participantstreamassoc
             participant_id="srfBElmCRp2QB23b7Mpk0w==">
             <send>i1Pz3to5hGk8fuXl+PbwCw==</send>
             <send>UAAMm5GRQKSCMVvLyl4rFw==</send>
             <recv>8zc6e0lYTlWIINA6GR+3ag==</recv>
             <recv>EiXGlc+4TruqqoDaNE76ag==</recv>
            </participantstreamassoc>
            <participantstreamassoc
             participant_id="zSfPoSvdSDCmU3A3TRDxAw==">
              <send>8zc6e0lYTlWIINA6GR+3ag==</send>
              <send>EiXGlc+4TruqqoDaNE76ag==</send>
              <recv>i1Pz3to5hGk8fuXl+PbwCw==</recv>
             <recv>UAAMm5GRQKSCMVvLyl4rFw==</recv>
             </participantstreamassoc>
           </recording>
```

## Ziele für Amazon Transcribe Transcribe-Prozessoren
<a name="amazon-transcribe-processors"></a>

Unterstützte Spülbecken:. `KinesisDataStreamSink`

Sie können diesen Prozessor nicht mit der Amazon Transcribe-Anrufanalyse kombinieren. Weitere Informationen zur Eingabe und Ausgabe von Amazon Transcribe finden Sie unter Transcribe [Streaming Audio im *Amazon* Transcribe](https://docs.aws.amazon.com/transcribe/latest/dg/streaming.html) Developer Guide.

Die Anrufanalysesitzung mit Amazon Transcribe verwendet Audiodaten, die von Kinesis Video Stream eingegeben werden.
+ Unterstützt MediaEncoding: PCM-signiertes 16-Bit-Little-Endian-Audio.
+ Unterstützte MediaSampleRate Abtastraten: Zwischen 8.000 Hz und 48.000 Hz.

 `StreamConfiguration`Eingabe für Amazon Transcribe Transcribe-Prozessoren: 
+ Sie müssen das `KinesisVideoStreamArn` für jeden Stream angeben.
+ (Optional) KVS `FragmentNumber` — Startet einen Anrufanalysejob mit dem Block nach einem bestimmten Fragment. Falls nicht angegeben, wird der neueste verfügbare Chunk im Kinesis Video Stream verwendet.
+ `StreamChannelDefinition`Amazon Transcribe unterstützt derzeit Audio mit zwei Kanälen. Sie müssen das `NumberOfChannels` in der Laufzeit angeben. `StreamChannelDefinition` Außerdem müssen Sie das übergeben, `ChannelId` wenn Sie Mono-Audio in zwei separaten Kanälen senden. In Ihrem Transkript sind die Kanäle mit den Bezeichnungen `ch_0` und `ch_1` versehen. Das folgende Beispiel zeigt den KVS-Eingang für einen Mono-Audiokanal-Stream.

```
"StreamChannelDefinition" : {"
    NumberOfChannels" : 1
}
```

 Das folgende Beispiel zeigt den KVS-Eingang für zwei Mono-Audioeingänge in zwei verschiedenen Streams. 

```
KVS-1:
    "StreamChannelDefinition" : {
        "NumberOfChannels"  : 1
        "ChannelDefinitions": [
            {
                "ChannelId": 0
            }
        ]
    }
KVS-2:
    "StreamChannelDefinition" : {
        "NumberOfChannels"  : 1
        "ChannelDefinitions": [
            {
                "ChannelId": 1
            }
        ]
    }
```

**Anmerkung**  
Für den Voice Connector, der `MediaInsightsPipeline` mit einem Amazon Transcribe Transcribe-Prozessor erstellt wurde, wird das Voice Connector-Konto Leg Audio `channel-0` und das PSTN Leg Audio zugewiesen. `channel-1`  
Für Voice Connector SIPREC verlassen wir uns auf die SIPREC-Metadaten. In den meisten Fällen wird das Stream-Label mit dem niedrigsten lexikografischen Wert zugewiesen. `channel-0`  
Wenn Sie bei den Anrufanalyseprozessoren Amazon Transcribe und Amazon Transcribe zwei Kinesis Video-Streams weiterleiten und jeder Stream einen Mono-Audiokanal enthält, verschachteln wir beide Kanäle zu einem einzigen Audiostream, bevor wir Transcribe- oder Transcribe-Anrufanalysedaten verarbeiten.

## Amazon Transcribe Transcribe-Ausgabe
<a name="amazon-transcribe-output"></a>

Das folgende Beispiel zeigt ein einmaliges Metadaten-Ausgabeformat für Amazon Transcribe.

```
{
    "time": "string", // ISO8601 format
    "service-type": "CallAnalytics",
    "detail-type": "CallAnalyticsMetadata",
    "mediaInsightsPipelineId": "string",
    "metadata": "string" // JSON encoded string of the metadata object
}

// metadata object
{
    "voiceConnectorId": "string",
    "callId": "string",
    "transactionId": "string",
    "fromNumber": "string",
    "toNumber": "string",
    "direction": "string",
    "oneTimeMetadata": "string" // JSON encoded string of oneTimeMetadata object
}
 
// onetimeMetadata object
{
    "inviteHeaders": "string", // JSON encoded string of SIP Invite headers key-value pair
    "siprecMetadata": "string", // siprec metadata in XML 
    "siprecMetadataJson": "string" // siprec metadata in JSON (converted from above XML) 
}
 
// inviteHeaders object
{
    "string": "string"
}
```

Das folgende Beispiel zeigt das Amazon Transcribe Transcribe-Ausgabeformat. 

```
{
    "time": "string", // ISO8601 format
    "service-type": "CallAnalytics",
    "detail-type": "Transcribe",
    "mediaInsightsPipelineId": "string",
    "metadata": {
        "voiceconnectorId": "string",
        "callId": "string",
        "transactionId": "string",
        "fromNumber": "string",
        "toNumber": "string",
        "direction": "string"
    }
    "TranscriptEvent": {
        "Transcript": {
            "Results": [{
                "Alternatives": [{
                    "Entities": [{
                        "Category": "string",
                        "Confidence": number,
                        "Content": "string",
                        "EndTime": number,
                        "StartTime": number,
                        "Type": "string"
                    }],
                    "Items": [{
                        "Confidence": number,
                        "Content": "string",
                        "EndTime": number,
                        "Speaker": "string",
                        "Stable": boolean,
                        "StartTime": number,
                        "Type": "string",
                        "VocabularyFilterMatch": boolean
                    }],
                    "Transcript": "string"
                }],
                "ChannelId": "string",
                "EndTime": number,
                "IsPartial": boolean,
                "LanguageCode": "string",
                "LanguageIdentification": [{
                    "LanguageCode": "string",
                    "Score": number
                }],
                "ResultId": "string",
                "StartTime": number
            }]
        }
    }
}
```

## Ziele des Sprachanalyseprozessors
<a name="voice-analytics-processor"></a>

 Unterstützte Senken:`KinesisDataStreamSink`, `SqsQueueSink``SnsTopicSink`, und`LambdaFunctionSink`. 

 Sie können diesen Prozessor mit dem Amazon Transcribe Transcribe-Prozessor für Anrufanalysen, dem Amazon Transcribe Transcribe-Prozessor oder der Anrufaufzeichnung kombinieren. Sie müssen das [https://docs.aws.amazon.com/chime-sdk/latest/APIReference/API_media-pipelines-chime_StartSpeakerSearchTask.html](https://docs.aws.amazon.com/chime-sdk/latest/APIReference/API_media-pipelines-chime_StartSpeakerSearchTask.html)oder verwenden, [https://docs.aws.amazon.com/chime-sdk/latest/APIReference/API_media-pipelines-chime_StartVoiceToneAnalysisTask.html](https://docs.aws.amazon.com/chime-sdk/latest/APIReference/API_media-pipelines-chime_StartVoiceToneAnalysisTask.html) APIs um einen Sprachanalyseprozessor aufzurufen. Weitere Informationen zur Verwendung von Sprachanalysen finden Sie unter [Verwenden von Amazon Chime SDK-Sprachanalysen.](https://docs.aws.amazon.com/chime-sdk/latest/dg/voice-analytics.html) 

## Kinesis Data Stream als Senke verwenden
<a name="kinesis-data-stream-destination"></a>

Die durch Anrufanalysen generierten Kinesis Data Stream (KDS) -Datensätze umfassen die Medien-Pipeline-ID, den Detailtyp, Metadaten und prozessorspezifische Abschnitte. Informationen zur Nutzung von Daten aus einem Kinesis Data Stream finden Sie unter [Daten aus Amazon Kinesis Data Streams lesen im Amazon Kinesis Streams *Streams-Entwicklerhandbuch*](https://docs.aws.amazon.com/streams/latest/dev/building-consumers.html). Um eine Konfiguration mit dieser Senke zu erstellen, benötigen Sie `kinesis:DescribeStream` Berechtigungen für den angegebenen Stream. 

 **Metadaten**

 Der `metadata` Abschnitt der generierten KDS-Datensätze enthält alle Schlüssel-Wert-Paare, die `CallAnalyticsRuntimeMetadata` während des API-Aufrufs angegeben wurden. [https://docs.aws.amazon.com/chime-sdk/latest/APIReference/API_media-pipelines-chime_CreateMediaInsightsPipeline.html](https://docs.aws.amazon.com/chime-sdk/latest/APIReference/API_media-pipelines-chime_CreateMediaInsightsPipeline.html) Wenn eine Anrufanalysesitzung von einem Voice Connector initiiert wurde, wird der Metadatenbereich automatisch mit den folgenden Parametern gefüllt: 
+ `transactionId`
+ `fromNumber`
+ `toNumber`
+ `callId`
+ `voiceConnectorId`
+ `direction`

 Zusätzlich zu den oben aufgeführten Parametern wird der Metadatenbereich für von Voice Connector initiierte Anrufanalysesitzungen mit einem `oneTimeMetadata` Feld gefüllt, das Folgendes enthält: 
+ `inviteHeaders`
+ `siprecMetadata`

Dies wird zu Beginn der Sitzung nur einmal in Kinesis Data Streams veröffentlicht und hat den Wert `detail-type` von`CallAnalyticsMetadata`.

Sie können `MediaInsightsRuntimeMetadata` für jeden [https://docs.aws.amazon.com/chime-sdk/latest/APIReference/API_media-pipelines-chime_CreateMediaInsightsPipeline.html](https://docs.aws.amazon.com/chime-sdk/latest/APIReference/API_media-pipelines-chime_CreateMediaInsightsPipeline.html)API-Aufruf eindeutige Kennungen übergeben, sodass Sie die Quelle jedes Datensatzes, der an Ihren Kinesis Data Stream geliefert wird, eindeutig identifizieren können.

## Amazon S3 S3-Anrufaufzeichnung
<a name="amazon-s3-call-recording"></a>

 Die Aufzeichnung von Call Analytics liest Audio aus einem KVS-Stream, zeichnet es als Audiodatei auf und lädt die Datei in den angegebenen Amazon S3 S3-Bucket hoch. Nach der Aufzeichnung sendet Call Analytics auch die Metadaten des Anrufs zusammen mit dem Speicherort der Datei an KDS. Wenn Sie ein Data Warehouse aktivieren, werden die Metadaten des Anrufs (einschließlich SIPREC-Metadaten, falls SIPREC verwendet wurde) in Form von Parquet-Tabellen, die Sie abfragen können, an das Data Warehouse übermittelt.

Wie bei jedem anderen Prozessor für Anrufanalysen müssen Sie zunächst eine Konfiguration für die Pipeline erstellen. Sie können die Amazon Chime SDK-Konsole oder die CLI verwenden, um die Konfiguration zu erstellen. Anschließend verwenden Sie die CLI, um die Pipeline zu erstellen. Weitere Informationen zur Verwendung der Konsole zum Erstellen von Aufzeichnungskonfigurationen finden Sie weiter [Anrufanalysekonfigurationen für das Amazon Chime SDK erstellen](creating-ca-configuration.md) oben in diesem Abschnitt. Weitere Informationen zur Verwendung der Aufzeichnungsworkflows finden Sie weiter [Grundlegendes zu Workflows für die Aufzeichnung von Anrufen für das Amazon Chime SDK](recording-workflows.md) oben in diesem Abschnitt.

 **So verwenden Sie die CLI zum Erstellen einer Konfiguration**

 Führen Sie den folgenden Befehl aus: 

```
aws chime-sdk-media-pipeline create-media-insights-pipeline-configuration --cli-input-json file://configuration.json 
```

 Das folgende Beispiel zeigt eine JSON-Konfigurationsdatei, bei der nur die Aufzeichnung aktiviert ist: 

```
{
    "MediaInsightsPipelineConfigurationName": configuration_name,
    "ResourceAccessRoleArn": role_arn,
    "Elements": [
        {
            "KinesisDataStreamSinkConfiguration": {
                "InsightsTarget": KDS_arn //Where recording live metadata will be delivered.
            },
            "Type": "KinesisDataStreamSink"
        },
        {
            "S3RecordingSinkConfiguration": {
                "Destination": "arn:aws:s3:::kvs-recording-testing",
                "RecordingFileFormat": file_format // Specify "Opus" or "WAV" as the recording file format.
            },
            "Type": "S3RecordingSink"
        }         
    ]
}
```

Beachten Sie Folgendes:
+ Um die Anrufaufzeichnung über Kinesis Video Streams zu ermöglichen, sollte Audio mit PCM-signierter 16-Bit-Little-Endian-Signatur sein. Die Samplerate muss 8 sein. KHz 
+ Entwickler müssen eine ausreichend lange Datenaufbewahrungsdauer für den Kinesis Video Stream festlegen, um sicherzustellen, dass die Fragmente aufbewahrt und für Anrufanalysen verwendet werden können. 
+ Wenn Sie die Anrufaufzeichnung entweder alleine oder in Kombination mit anderen Prozessoren aktivieren, müssen Sie zwei Kinesis Video Stream ARNs für die Aufzeichnung bereitstellen. Die Anrufaufzeichnung unterstützt keinen einzelnen Stereo-Audioeingang. 

## Ausgabe von Metadaten für die Amazon S3 S3-Anrufaufzeichnung
<a name="s3-recording-metadata-output"></a>

Das folgende Beispiel zeigt das Metadaten-Ausgabeformat für die Amazon S3 S3-Aufzeichnung von Call Analytics.

```
{
    "time": "string", // ISO8601 format
    "service-type": "CallAnalytics",
    "detail-type": "Recording",   
    "mediaInsightsPipelineId": "string",
    "s3MediaObjectConsoleUrl": "string",
    "recordingDurationSeconds": "number",
    "metadata": "string" // JSON encoded string of the metadata object
}

// metadata object
{
    "voiceConnectorId": "string",
    "callId": "string",
    "transactionId": "string",
    "fromNumber": "string",
    "toNumber": "string",
    "direction": "string",
    "startTime": "string", // ISO8601 format
    "endTime": "string", // ISO8601 format
    "oneTimeMetadata": "string" // JSON encoded in string of oneTimeMetadata object
}

// onetimeMetadata object
{
    "sipHeaders": "string", // JSON encoded string of SIP Invite headers key-value pair
    "siprecMetadata": "string", // siprec metadata in XML 
    "siprecMetadataJson": "string" // siprec metadata in JSON (converted from above XML) 
}

// sipHeaders object
{
    "string": "string"
}
```

## Aktivieren Sie die Sprachverbesserung
<a name="voice-enhancement-sink"></a>

Um die Sprachverbesserung zu aktivieren, fügen Sie ein `VoiceEnhancementSinkConfiguration` Element in einen [https://docs.aws.amazon.com/chime-sdk/latest/APIReference/API_media-pipelines-chime_CreateMediaInsightsPipelineConfiguration.html](https://docs.aws.amazon.com/chime-sdk/latest/APIReference/API_media-pipelines-chime_CreateMediaInsightsPipelineConfiguration.html)API-Aufruf ein.

Dieses Beispiel zeigt ein typisches Element.

```
{
  "Type":"VoiceEnhancementSink",
  "VoiceEnhancementSinkConfiguration": {
       "Disabled": Boolean (string) // FALSE ==> Voice Enhancement will be performed
}
```

Um eine Konfiguration zu aktualisieren, fügen Sie das `VoiceEnhancementSinkConfiguration` Element zu einem [https://docs.aws.amazon.com/chime-sdk/latest/APIReference/API_media-pipelines-chime_UpdateMediaInsightsPipelineConfiguration.html](https://docs.aws.amazon.com/chime-sdk/latest/APIReference/API_media-pipelines-chime_UpdateMediaInsightsPipelineConfiguration.html)API-Aufruf hinzu. Wenn Sie dies tun, nimmt die [https://docs.aws.amazon.com/chime-sdk/latest/APIReference/API_media-pipelines-chime_GetMediaInsightsPipelineConfiguration.html](https://docs.aws.amazon.com/chime-sdk/latest/APIReference/API_media-pipelines-chime_GetMediaInsightsPipelineConfiguration.html)API das `VoiceEnhancementSinkConfiguration` Element in die Ergebnisse auf.

Diese Beispielanfrage zeigt, wie Voice Enhancement und Amazon S3 S3-Aufzeichnung aktiviert werden.

```
POST /media-insights-pipeline-configurations HTTP/1.1
Content-type: application/json

{
   "MediaInsightsPipelineConfigurationName":"media_insights_configuration_name",
   "ResourceAccessRoleArn":"arn:aws:iam::account_id:role/resource_access_role",
   "Elements":[
      {
         "Type":"S3RecordingSink",
         "S3RecordingSinkConfiguration":{
            "Destination":"arn:aws:s3:::input_bucket_path",
            "RecordingFileFormat":"Wav"
         }
      },
      {
         "Type":"VoiceEnhancementSink",
         "VoiceEnhancementSinkConfiguration": {
            "disabled":"false"
         }
      }
   ],
   "ClientRequestToken":"client_request_token"
}
```

**Anmerkung**  
Das `VoiceEnhancementSink` Element erfordert immer ein `S3RecordingSink` Element in einer Konfiguration für Anrufanalysen.

# Kombinieren von Transkription mit Aufnahmesenken für das Amazon Chime SDK
<a name="combining-recording-transcription"></a>

Sie können die Prozessoren Amazon Transcribe und Amazon Transcribe Call Analytics mit einer Amazon S3 S3-Aufnahmesenke kombinieren. Builder können RecordingSinkConfiguration zusätzlich zu den Amazon Transcribe Transcribe-Prozessoren ein S3 in einem [https://docs.aws.amazon.com/chime-sdk/latest/APIReference/API_media-pipelines-chime_CreateMediaInsightsPipelineConfiguration.html](https://docs.aws.amazon.com/chime-sdk/latest/APIReference/API_media-pipelines-chime_CreateMediaInsightsPipelineConfiguration.html)API-Aufruf oder mithilfe der Konsole übergeben.

In Verbindung mit der Amazon S3 S3-Aufnahmesenke können Sie einen Amazon Transcribe- oder einen Amazon Transcribe Call Analytics-Prozessor verwenden, aber niemals beide. Sie können derselben Konfiguration zusätzlich zu einer Aufnahmesenke auch Sprachanalysen hinzufügen, mit oder ohne Transkriptionsprozessor.

**Anmerkung**  
Sie können die Aufnahme mit jedem der oben aufgeführten Prozessoren aktivieren. Wenn Sie jedoch Amazon Transcribe Call Analytics zusammen mit der Amazon S3 S3-Anrufaufzeichnung aktivieren, müssen Sie zwei Kinesis-Videostreams bereitstellen, und Sie erhalten doppelte Aufzeichnungsdateien, eine von Amazon Transcribe Call Analytics und eine von der Amazon S3 S3-Anrufaufzeichnung.

Beachten Sie Folgendes:
+ Sie müssen ein Unikat verwenden. `MediaInsightsPipelineConfigurationName`
+ Informationen zu den `ResourceAccessRoleArn` finden Sie [Verwenden der Ressourcenzugriffsrolle Call Analytics für das Amazon Chime SDK](call-analytics-resource-access-role.md) in diesem Handbuch.
+ Der `Destination` Wert muss ein S3-Pfad-ARN sein. Der Amazon S3 S3-Bucket muss demselben Konto gehören.
+ Wenn Sie eine Konfiguration mit Transcribe und Recording verwenden, um eine Pipeline zu erstellen, erscheinen Pausen und Wiederaufnahmen nur in den Erkenntnissen, die durch einen Kinesis Data-Stream generiert werden. Alle Daten in den KVS-Streams werden aufgezeichnet und auf Amazon S3 hochgeladen.
+ Wenn eine Konfiguration zusätzlich zur Aufzeichnung Amazon Transcribe oder Transcribe Call Analytics (TCA) verwendet, bietet die Media Insights-Pipeline Transkriptions- oder Transcribe Call Analytics-Einblicke in Echtzeit, gefolgt von einer Amazon S3 S3-Aufzeichnung am Ende des Anrufs. Wenn die Transkriptionsdienste während der Anrufanalyse fehlschlagen, versucht der S3-Aufzeichnungsjob trotzdem, ausgeführt zu werden. Umgekehrt wirkt sich ein Amazon S3 S3-Aufzeichnungsfehler nicht auf die Transcribe Insights aus, da er nach Abschluss der Transkription ausgeführt wird.

Dieses Beispiel zeigt eine Konfiguration mit einem Amazon Transcribe Transcribe-Prozessor und einer Amazon S3 S3-Aufnahmesenke. Das Beispiel ermöglicht auch eine teilweise Stabilisierung der Ergebnisse, wodurch die Latenz bei der Ausgabe reduziert werden kann, die Genauigkeit jedoch beeinträchtigt werden kann. Weitere Informationen finden Sie unter [Stabilisierung teilweiser Ergebnisse](https://docs.aws.amazon.com/transcribe/latest/dg/streaming-partial-results.html#streaming-partial-result-stabilization) im *Amazon Transcribe* Developer Guide.

```
{
    "MediaInsightsPipelineConfigurationName": unique_configuration_name,
    "ResourceAccessRoleArn": role_arn,
    "Elements": [{
            "AmazonTranscribeProcessorConfiguration": {
                "ContentIdentificationType": "string",
                "ContentRedactionType": "string",
                "EnablePartialResultsStabilization": boolean, //Enables partial result stabilization. Can reduce latency. May impact accuracy. 
                "FilterPartialResults": boolean, //To control partial utterance events
                "LanguageCode": "string",
                "LanguageModelName": "string",
                "PartialResultsStability": "string",
                "PiiEntityTypes": "string",
                "ShowSpeakerLabel": boolean,
                "VocabularyFilterMethod": "string",
                "VocabularyFilterName": "string",
                "VocabularyName": "string"
            },
            "Type": "AmazonTranscribeProcessor"
        },
        {
            "KinesisDataStreamSinkConfiguration": {
                "InsightsTarget": KDS_arn //Where recording and insights live metadata will be delivered.
            },
            "Type": "KinesisDataStreamSink"
        },
        {
            "S3RecordingSinkConfiguration": {
                "Destination": S3_Arn,
                "RecordingFileFormat": file_format // Specify "Opus" or "WAV" as the recording file format.
            },
            "Type": "S3RecordingSink"
        }
    ]
}
```

# Verwenden von EventBridge Amazon-Benachrichtigungen für das Amazon Chime SDK
<a name="using-eventbridge-notifications"></a>

Amazon Chime SDK Call Analytics unterstützt das Senden von Ereignissen an den EventBridge Standardbus, wenn sich der Status der Media Insights-Pipeline ändert oder wenn die Echtzeitwarnungsbedingungen für Anrufanalysen erfüllt sind. Für Statusaktualisierungen der Media Insights-Pipeline empfehlen wir, dass Sie ein EventBridge Ziel konfigurieren, das Sie benachrichtigt, wenn Ihre Ressourcen asynchron ausfallen. Benachrichtigungen zur Anrufanalyse haben eine aws.chime-Quelle und verschiedene Detailtypen, die in den folgenden Abschnitten beschrieben werden. Weitere Informationen finden Sie im [ EventBridge Amazon-Benutzerhandbuch](https://docs.aws.amazon.com/eventbridge/latest/userguide/eb-what-is.html).

**Topics**
+ [Status-Aktualisierungen](#status-updates)
+ [Warnmeldungen in Echtzeit](#realtime-alerts)

## Status-Aktualisierungen
<a name="status-updates"></a>

 Media Insights-Pipelines senden EventBridge Benachrichtigungen, wenn eine Anrufanalysesitzung voranschreitet und entweder erfolgreich beendet wird oder Fehler auftreten. Sie erhalten eine EventBridge Benachrichtigung mit dem Detailtyp „Media Insights-Statusänderung“, wenn: 
+ Der Status einer Media Insights-Pipeline ändert sich.
+ Der Status eines Elements der Media Insights-Pipeline ändert sich.
+ Jedes Pipeline-Element wird gestoppt.
+ Jedes Pipeline-Element fällt aus.

Der Detailbereich enthält immer die folgenden Felder:
+ `version`
+ `mediaInsightsPipelineArn`
+ `eventType`

Der Detailbereich enthält auch ein `mediaInsightsPipelineElementStatuses` Feld, falls die Media Insights-Pipeline mehrere Elemente enthält, z. B. Analyseprozessoren und Datensenken. Dieses Feld gibt den Status der einzelnen Elemente in der Pipeline an. Der mögliche Status für jedes Pipeline-Element könnte sein:
+ `NotStarted`
+ `InProgress`
+ `Stopped`
+ `Failed`

 Der Detailabschnitt enthält auch alle Schlüssel-Wert-Paare, die `MediaInsightsRuntimeMetadata` während des [https://docs.aws.amazon.com/chime-sdk/latest/APIReference/API_media-pipelines-chime_CreateMediaInsightsPipeline.html](https://docs.aws.amazon.com/chime-sdk/latest/APIReference/API_media-pipelines-chime_CreateMediaInsightsPipeline.html)API-Aufrufs angegeben wurden. Wenn eine Anrufanalysesitzung von einem Voice Connector initiiert wurde, wird der Metadatenbereich automatisch mit den folgenden Parametern gefüllt: 
+ `transactionId`
+ `fromNumber`
+ `toNumber`
+ `callId`
+ `voiceConnectorId`
+ `direction`

 Die folgenden Ereignistypen können immer dann auftreten, wenn eine Media Insights-Pipeline ein einzelnes Element enthält. Erweitern Sie jeden Abschnitt, um mehr zu erfahren.

### Medieninformationen zum Amazon Chime SDK in Bearbeitung
<a name="insights-in-progress"></a>

Dieses Beispiel zeigt eine typische Ereignisstruktur.

```
{
    "version": "0",
    "id": "string",
    "detail-type": "Media Insights State Change", 
    "source": "aws.chime", 
    "account": number,
    "region": "string",
    "time": "yyyy-mm-ddThh:mm:ssZ",
    "resources": [] 
    "detail": {
        "version": "0",
        "mediaInsightsPipelineArn": "string",
        "eventType": "chime:MediaInsightsInProgress",
        "version": "0",
        "callId": "string",
        "transactionId": "string",
        "fromNumber": "string",
        "toNumber": "string",
        "voiceConnectorId": "string", 
        "direction": "string"
    }
}
```

### Amazon Chime SDK Media Insights wurde angehalten
<a name="insights-paused"></a>

Dieses Beispiel zeigt eine typische Ereignisstruktur.

```
{
    "version": "0",
    "id": "string",
    "detail-type": "Media Insights State Change", 
    "source": "aws.chime", 
    "account": number,
    "region": "string",
    "time": "yyyy-mm-ddThh:mm:ssZ",
    "resources": [] 
    "detail": {
        "version": "0",
        "mediaInsightsPipelineArn": "string",
        "eventType": "chime:MediaInsightsPaused",
        "callId": "string",
        "transactionId": "string",
        "fromNumber": "string",
        "toNumber": "string",
        "voiceConnectorId": "string", 
        "direction": "string"
    }
}
```

### Medieneinblicke im Amazon Chime SDK wurden eingestellt
<a name="insights-stoppped"></a>

Dieses Beispiel zeigt eine typische Ereignisstruktur.

```
{
    "version": "0",
    "id": "string",
    "detail-type": "Media Insights State Change", 
    "source": "aws.chime", 
    "account": number,
    "region": "string",
    "time": "yyyy-mm-ddThh:mm:ssZ",
    "resources": [] 
    "detail": {
        "version": "0",
        "mediaInsightsPipelineArn": "string",
        "eventType": "chime:MediaInsightsStopped",
        "callId": "string",
        "transactionId": "string",
        "fromNumber": "string",
        "toNumber": "string",
        "voiceConnectorId": "string", 
        "direction": "string"
    }
}
```

### Vorübergehender Ausfall von Amazon Chime SDK Media Insights
<a name="insights-temp-failure"></a>

Zeigt an, dass der Service auf einen vorübergehenden Fehler gestoßen ist und versucht, es erneut zu versuchen. Es sind keine Maßnahmen von Ihnen erforderlich.

Dieses Beispiel zeigt eine typische Ereignisstruktur.

```
{
    "version": "0",
    "id": "string",
    "detail-type": "Media Insights State Change", 
    "source": "aws.chime", 
    "account": number,
    "region": "string",
    "time": "yyyy-mm-ddThh:mm:ssZ",
    "resources": [] 
    "detail": {
        "version": "0",
        "mediaInsightsPipelineArn": "string",
        "eventType": "chime:MediaInsightsTemporaryFailure",
        "callId": "string",
        "transactionId": "string",
        "fromNumber": "string",
        "toNumber": "string",
        "voiceConnectorId": "string", 
        "direction": "string"
    }
}
```

### Dauerhafter Ausfall von Amazon Chime SDK Media Insights
<a name="insights-perm-failure"></a>

Weist auf einen Fehler hin, der Maßnahmen Ihrerseits erfordert. Verwenden Sie den`failureReason`, um das Problem zu beheben. Zu den typischen Fehlern könnten die folgenden gehören:
+ Unzureichende Berechtigungen für die Rolle „Ressourcenzugriff“
+ Fehlende oder gelöschte Ressourcen
+ Drosselung durch einen AWS Dienst, der Analytics in Ihrem Namen aufruft, wie Amazon Transcribe oder Amazon Kinesis.
+ Inkompatible Medienformate in KVS-Streams

Dieses Beispiel zeigt eine typische Ereignisstruktur.

```
{
    "version": "0",
    "id": "string",
    "detail-type": "Media Insights State Change", 
    "source": "aws.chime", 
    "account": number,
    "region": "string",
    "time": "yyyy-mm-ddThh:mm:ssZ",
    "resources": [] 
    "detail": {
        "version": "0",
        "mediaInsightsPipelineArn": "string",
        "eventType": "chime:MediaInsightsPermanentFailure",
        "callId": "string",
        "transactionId": "string",
        "fromNumber": "string",
        "toNumber": "string",
        "voiceConnectorId": "string", 
        "direction": "string",
        "failureReason": "string"              
    }
}
```

**Anmerkung**  
Das Feld `failureReason` ist optional. Ein typischer Grund könnte beispielsweise sein`Access denied when assuming resource access role`.

Die folgenden Ereignistypen können auftreten, wenn eine Media Insights-Pipeline für eine von einem Amazon Chime SDK Voice Connector initiierte Anrufanalysesitzung erstellt wird oder der Erstellungsversuch fehlschlägt. Erweitern Sie jeden Abschnitt, um mehr zu erfahren.

### Medieneinblicke zum Amazon Chime SDK erstellt
<a name="vc-pipeline-created"></a>

Dieses Beispiel zeigt ein typisches Erfolgsereignis.

```
{
    "version": "0",
    "id": "string",
    "detail-type": "Media Insights State Change", 
    "source": "aws.chime", 
    "account": number,
    "region": "string",
    "time": "yyyy-mm-ddThh:mm:ssZ",
    "resources": [] 
    "detail": 
    {
        "version": "0",
        "mediaInsightsPipelineConfigurationArn": "string",
        "mediaInsightsPipelineArn": "string",
        "eventType": "chime:MediaInsightsCreated",
        "callId": "string",
        "transactionId": "string",
        "fromNumber": "string",
        "toNumber": "string",
        "voiceConnectorId": "string", 
        "direction": "string",
    }
}
```

### Die Erstellung von Media Insights im Amazon Chime SDK ist fehlgeschlagen
<a name="vc-pipeline-failed"></a>

Dieses Beispiel zeigt ein typisches Fehlerereignis.

```
{
    "version": "0",
    "id": "string",
    "detail-type": "Media Insights State Change",     
    "source": "aws.chime", 
    "account": number,
    "region": "string",
    "time": "yyyy-mm-ddThh:mm:ssZ",
    "resources": [] 
    "detail": 
    {
        "version": "0",
        "mediaInsightsPipelineConfigurationArn": "string",
        "eventType": "chime:MediaInsightsCreateFailed", 
        "callId": "string",
        "transactionId": "string",
        "fromNumber": "string",
        "toNumber": "string",
        "voiceConnectorId": "string", 
        "direction": "string",
        "failureOrigin": "Voice Connector",
        "httpStatusCode": "string",
        "failureReason": "string"
    }
}
```

Die folgenden Ereignistypen können auftreten, wenn eine Media Insights-Pipeline mehrere Elemente enthält. Die Beispielbenachrichtigungen gelten für die `AmazonTranscribeProcessor` Kombination mit`S3RecordingSink`. Erweitern Sie jeden Abschnitt, um mehr zu erfahren. 

### AmazonTranscribeProcessor ist in Bearbeitung und S3 RecordingSink wurde nicht gestartet
<a name="processor-running-sink-not-started"></a>

Dieses Beispiel zeigt eine typische Ereignisstruktur.

```
{
    "version": "0", 
    "id": "string",
    "detail-type": "Media Insights State Change", 
    "source": "aws.chime", 
    "account": number, 
    "region": "string",
    "time": "yyyy-mm-ddThh:mm:ssZ", 
    "resources": [],
    "detail": {
        "version": "0", 
        "mediaInsightsPipelineArn": "string", 
        "eventType": "chime:MediaInsightsInProgress",
        "mediaInsightsPipelineElementStatuses": [
            { 
                "type": "AmazonTranscribeProcessor", 
                "status": "InProgress",
                "updatedOn": 1686184070655             
            },
            { 
                "type": "S3RecordingSink", 
                "status": "NotStarted",
                "updatedOn": 1686184070655 
            }
        ] 
        "callId": "string", 
        "transactionId": "string", 
        "fromNumber": "string", 
        "toNumber": "string", 
        "voiceConnectorId": "string", 
        "direction": "string" 
    } 
}
```

### AmazonTranscribeProcessor war erfolgreich und S3 RecordingSink ist in Bearbeitung
<a name="processor-success-sink-in-progress"></a>

Dieses Beispiel zeigt eine typische Ereignisstruktur.

```
{
    "version": "0", 
    "id": "string",
    "detail-type": "Media Insights State Change", 
    "source": "aws.chime", 
    "account": number, 
    "region": "string",
    "time": "yyyy-mm-ddThh:mm:ssZ", 
    "resources": [],
    "detail": {
        "version": "0", 
        "mediaInsightsPipelineArn": "string", 
        "eventType": "chime:MediaInsightsInProgress",
        "mediaInsightsPipelineElementStatuses": [
            { 
                "type": "AmazonTranscribeProcessor", 
                "status": "Stopped",
                "updatedOn": 1686184070655             
            },
            { 
                "type": "S3RecordingSink", 
                "status": "InProgress",
                "updatedOn": 1686184070655 
            }
        ] 
        "callId": "string", 
        "transactionId": "string", 
        "fromNumber": "string", 
        "toNumber": "string", 
        "voiceConnectorId": "string", 
        "direction": "string" 
    } 
}
```

### AmazonTranscribeProcessor ist ausgefallen und S3 RecordingSink ist in Bearbeitung
<a name="processor-fail-sink-in-process"></a>

Dieses Beispiel zeigt eine typische Ereignisstruktur.

```
{
    "version": "0", 
    "id": "string",
    "detail-type": "Media Insights State Change", 
    "source": "aws.chime", 
    "account": number, 
    "region": "string",
    "time": "yyyy-mm-ddThh:mm:ssZ", 
    "resources": [],
    "detail": {
        "version": "0", 
        "mediaInsightsPipelineArn": "string", 
        "eventType": "chime:MediaInsightsInProgress",
        "mediaInsightsPipelineElementStatuses": [
            { 
                "type": "AmazonTranscribeProcessor", 
                "status": "Failed",
                "updatedOn": 1686184070655             
            },
            { 
                "type": "S3RecordingSink", 
                "status": "InProgress",
                "updatedOn": 1686184070655 
            }
        ] 
        "callId": "string", 
        "transactionId": "string", 
        "fromNumber": "string", 
        "toNumber": "string", 
        "voiceConnectorId": "string", 
        "direction": "string" 
    } 
}
```

### AmazonTranscribeProcessor ist fehlgeschlagen und S3 RecordingSink war erfolgreich
<a name="processor-fail-record-finish"></a>

Dieses Beispiel zeigt eine typische Ereignisstruktur.

```
{
    "version": "0", 
    "id": "string",
    "detail-type": "Media Insights State Change", 
    "source": "aws.chime", 
    "account": number, 
    "region": "string",
    "time": "yyyy-mm-ddThh:mm:ssZ", 
    "resources": [],
    "detail": {
        "version": "0", 
        "mediaInsightsPipelineArn": "string", 
        "eventType": "chime:MediaInsightsPermanentFailure",
        "mediaInsightsPipelineElementStatuses": [
            { 
                "type": "AmazonTranscribeProcessor", 
                "status": "Failed",
                "updatedOn": 1686184070655             
            },
            { 
                "type": "S3RecordingSink", 
                "status": "Stopped",
                "updatedOn": 1686184070655 
            }
        ] 
        "callId": "string", 
        "transactionId": "string", 
        "fromNumber": "string", 
        "toNumber": "string", 
        "voiceConnectorId": "string", 
        "direction": "string",
        "failureReason": "string" 
    } 
}
```

### AmazonTranscribeProcessor war erfolgreich und S3 RecordingSink ist gescheitert
<a name="processor-success-recording-fail"></a>

Dieses Beispiel zeigt eine typische Ereignisstruktur.

```
{
    "version": "0", 
    "id": "string",
    "detail-type": "Media Insights State Change", 
    "source": "aws.chime", 
    "account": number, 
    "region": "string",
    "time": "yyyy-mm-ddThh:mm:ssZ", 
    "resources": [],
    "detail": {
        "version": "0", 
        "mediaInsightsPipelineArn": "string", 
        "eventType": "chime:MediaInsightsPermanentFailure",
        "mediaInsightsPipelineElementStatuses": [
            { 
                "type": "AmazonTranscribeProcessor", 
                "status": "Stopped",
                "updatedOn": 1686184070655             
            },
            { 
                "type": "S3RecordingSink", 
                "status": "Failed",
                "updatedOn": 1686184070655 
            }
        ] 
        "callId": "string", 
        "transactionId": "string", 
        "fromNumber": "string", 
        "toNumber": "string", 
        "voiceConnectorId": "string", 
        "direction": "string",
        "failureReason": "string" 
    } 
}
```

### AmazonTranscribeProcessor ist angehalten und S3 RecordingSink wurde nicht gestartet
<a name="processor-pause-recording-no-start"></a>

Dieses Beispiel zeigt eine typische Ereignisstruktur.

```
{
    "version": "0", 
    "id": "string",
    "detail-type": "Media Insights State Change", 
    "source": "aws.chime", 
    "account": number, 
    "region": "string",
    "time": "yyyy-mm-ddThh:mm:ssZ", 
    "resources": [],
    "detail": {
        "version": "0", 
        "mediaInsightsPipelineArn": "string", 
        "eventType": "chime:MediaInsightsPaused",
        "mediaInsightsPipelineElementStatuses": [
            { 
                "type": "AmazonTranscribeProcessor", 
                "status": "Paused",
                "updatedOn": 1686184070655             
            },
            { 
                "type": "S3RecordingSink", 
                "status": "NotStarted",
                "updatedOn": 1686184070655 
            }
        ] 
        "callId": "string", 
        "transactionId": "string", 
        "fromNumber": "string", 
        "toNumber": "string", 
        "voiceConnectorId": "string", 
        "direction": "string" 
    } 
}
```

### AmazonTranscribeProcessor ist vorübergehend ausgefallen und S3 RecordingSink wurde nicht gestartet
<a name="processor-temp-fail-recording-no-start"></a>

Dieses Beispiel zeigt eine typische Ereignisstruktur.

```
{
    "version": "0", 
    "id": "string",
    "detail-type": "Media Insights State Change", 
    "source": "aws.chime", 
    "account": number, 
    "region": "string",
    "time": "yyyy-mm-ddThh:mm:ssZ", 
    "resources": [],
    "detail": {
        "version": "0", 
        "mediaInsightsPipelineArn": "string", 
        "eventType": "chime:MediaInsightsTemporaryFailure",
        "mediaInsightsPipelineElementStatuses": [
            { 
                "type": "AmazonTranscribeProcessor", 
                "status": "TemporarilyFailed",
                "updatedOn": 1686184070655             
            },
            { 
                "type": "S3RecordingSink", 
                "status": "NotStarted",
                "updatedOn": 1686184070655 
            }
        ] 
        "callId": "string", 
        "transactionId": "string", 
        "fromNumber": "string", 
        "toNumber": "string", 
        "voiceConnectorId": "string", 
        "direction": "string" 
    } 
}
```

### AmazonTranscribeProcessor und S3 RecordingSink war erfolgreich
<a name="processor-sink-success"></a>

Dieses Beispiel zeigt eine typische Ereignisstruktur.

```
{
    "version": "0", 
    "id": "string",
    "detail-type": "Media Insights State Change", 
    "source": "aws.chime", 
    "account": number, 
    "region": "string",
    "time": "yyyy-mm-ddThh:mm:ssZ", 
    "resources": [],
    "detail": {
        "version": "0", 
        "mediaInsightsPipelineArn": "string", 
        "eventType": "chime:MediaInsightsStopped",
        "mediaInsightsPipelineElementStatuses": [
            { 
                "type": "AmazonTranscribeProcessor", 
                "status": "Stopped",
                "updatedOn": 1686184070655             
            },
            { 
                "type": "S3RecordingSink", 
                "status": "Stopped",
                "updatedOn": 1686184070655 
            }
        ] 
        "callId": "string", 
        "transactionId": "string", 
        "fromNumber": "string", 
        "toNumber": "string", 
        "voiceConnectorId": "string", 
        "direction": "string" 
    } 
}
```

### S3 RecordingSink war erfolgreich und VoiceEnhancement läuft
<a name="voice-enhancement-sink-inprogress"></a>

Dieses Beispiel zeigt eine typische Ereignisstruktur.

```
{
  "version": "0",
  "id": "string",
  "detail-type": "Media Insights State Change",
  "source": "aws.chime",
  "account": number,
  "time": "yyyy-mm-ddThh:mm:ssZ",
  "region": "string",
  "detail": {
    "mediaInsightsPipelineArn": "string",
    "eventType": "chime:MediaInsightsInProgress",
    "version": "0",
    "mediaInsightsPipelineElementStatuses": [
      {
        "type": "VoiceEnhancementSink",
        "status": "InProgress",
        "updatedOn": 1686184070655
      },
      {
        "type": "S3RecordingSink",
        "status": "Stopped",
        "updatedOn": 1686184070655
      }
    ]
  }
}
```

### S3 RecordingSink war erfolgreich und VoiceEnhancement scheiterte aufgrund von Aufrufen, die länger als 30 Minuten waren
<a name="voice-enhancement-sink-fail-longerthan30minutes"></a>

Dieses Beispiel zeigt eine typische Ereignisstruktur.

```
{
  "version": "0",
  "id": "string",
  "detail-type": "Media Insights State Change",
  "source": "aws.chime",
  "account": number,
  "time": "yyyy-mm-ddThh:mm:ssZ",
  "region": "string",
  "detail": {
    "mediaInsightsPipelineArn": "string",
    "eventType": "chime:MediaInsightsStopped",
    "version": "0",
    "mediaInsightsPipelineElementStatuses": [
      {
        "type": "VoiceEnhancement",
        "status": "NotSupported",
        "updatedOn": 1686184070655,
        "statusDetail": "Unsupported recording length"
      },
      {
        "type": "S3RecordingSink",
        "status": "Stopped",
        "updatedOn": 1686184070655
      }
    ]
  }
}
```

### S3 RecordingSink war erfolgreich und VoiceEnhancement schlug aufgrund von Aufrufen von weniger als 30 Minuten fehl
<a name="voice-enhancement-sink-fail-lessthan30minutes"></a>

Dieses Beispiel zeigt eine typische Ereignisstruktur.

```
{
  "version": "0",
  "id": "string",
  "detail-type": "Media Insights State Change",
  "source": "aws.chime",
  "account": number,
  "time": "yyyy-mm-ddThh:mm:ssZ",
  "region": "string",
  "detail": {
    "mediaInsightsPipelineArn": "string",
    "eventType": "chime:MediaInsightsPermanentFailure",
    "version": "0",
    "mediaInsightsPipelineElementStatuses": [
      {
        "type": "VoiceEnhancement",
        "status": "Failed",
        "updatedOn": 1686184070655
      },
      {
        "type": "S3RecordingSink",
        "status": "Stopped",
        "updatedOn": 1686184070655
      }
    ]
  }
}
```

## Warnmeldungen in Echtzeit
<a name="realtime-alerts"></a>

**Anmerkung**  
Nur die Prozessoren Amazon Transcribe und Amazon Transcribe Call Analytics unterstützen Benachrichtigungen in Echtzeit.

 Mit der Amazon Chime SDK-Anrufanalyse können Entwickler Regeln für das Senden von Echtzeitwarnungen über einen Prozessor während einer Analysesitzung einrichten. Benachrichtigungen werden EventBridge mit dem Detailtyp an Amazon gesendet`Media Insights Rules Matched`. EventBridge unterstützt die Integration mit nachgelagerten Diensten wie Lambda, Amazon SQS und Amazon SNS, um Benachrichtigungen für den Endbenutzer auszulösen oder eine andere benutzerdefinierte Geschäftslogik zu initiieren.

 Echtzeitwarnungen werden als Teil des `RealTimeAlertConfiguration` Feldes für eingerichtet. `MediaInsightsPipelineConfiguration` Sie können die Amazon Chime SDK-Konsole verwenden, um das Feld zu konfigurieren, oder Sie können das [https://docs.aws.amazon.com/chime-sdk/latest/APIReference/API_media-pipelines-chime_CreateMediaInsightsPipelineConfiguration.html](https://docs.aws.amazon.com/chime-sdk/latest/APIReference/API_media-pipelines-chime_CreateMediaInsightsPipelineConfiguration.html)oder [https://docs.aws.amazon.com/chime-sdk/latest/APIReference/API_media-pipelines-chime_UpdateMediaInsightsPipelineConfiguration.html](https://docs.aws.amazon.com/chime-sdk/latest/APIReference/API_media-pipelines-chime_UpdateMediaInsightsPipelineConfiguration.html) APIsaufrufen. 

 Dieses Beispiel zeigt, wie eine Echtzeit-Warnkonfiguration über die API erstellt oder aktualisiert wird. 

```
{
    "MediaInsightsPipelineConfigurationName": "config_name",
    "ResourceAccessRoleArn": "arn:aws:iam::account_id:role/role_name",
    "RealTimeAlertConfiguration": {
        "Disabled": false,
        "Rules": [{
                "Type": "KeywordMatch",
                "KeywordMatchConfiguration": {
                    "RuleName": "rule_name_1",
                    "Keywords": [
                        "hello",
                        "thank you"
                    ],
                    "Negate": false
                }
            },
            {
                "Type": "Sentiment",
                "RuleName": "rule_name_2",
                "SentimentType": "NEGATIVE",
                "TimePeriod": 60
            },
            {
                "Type": "IssueDetection",
                "RuleName": "rule_name_3"
            }
        ]
    },
    "Elements": [{
            "Type": "AmazonTranscribeCallAnalyticsProcessor",
            "AmazonTranscribeCallAnalyticsProcessorConfiguration": {
                "LanguageCode": "en-US"
            }
        },
        {
            "Type": "KinesisDataStreamSink",
            "KinesisDataStreamSinkConfiguration": {
                "InsightsTarget": "arn:aws:kinesis:us-east-1:account_id:stream/stream_name"
            }
        }
    ]
}
```

Jede Regel in einer Echtzeit-Warnungskonfiguration wird unabhängig ausgelöst. Sie erhalten möglicherweise mehrere EventBridge Benachrichtigungen, wenn mehrere Regelbedingungen gleichzeitig erfüllt sind. Um eine Liste mit Regeln für Ihre Benachrichtigungen zu erstellen, können Sie zwischen den folgenden Regeltypen wählen:

Übereinstimmung mit Schlüsselwörtern  
Warnt, wenn ein bestimmter Satz von Schlüsselwörtern oder Phrasen in einer Äußerung oder einem Transkriptereignis übereinstimmt. Sie können die Warnung so konfigurieren, dass ein Ereignis ausgelöst wird, wenn:  
+ Alle angegebenen Schlüsselwörter werden gesprochen und `Negate` sind auf eingestellt`false`.
+ Alle angegebenen Schlüsselwörter bleiben während des gesamten Anrufs unausgesprochen, wenn auf gesetzt `Negate` ist. `true`
Amazon Transcribe und Amazon Transcribe Analytics unterstützen diesen Regeltyp.

Stimmungsanalyse  
Warnt, wenn ein bestimmter Stimmungstyp über einen fortlaufenden Zeitraum andauert. Nur Transcribe Call Analytics unterstützt diese Regel.

Problemerkennung  
Warnt, wenn bei einer Äußerung ein Problem erkannt wird. Nur Transcribe Call Analytics unterstützt diesen Regeltyp.

Das folgende Beispiel zeigt ein Alarmereignis in Echtzeit für eine `KeywordMatch` Regel.

```
{
    "version": "0",
    "id": "string",
    "detail-type": "Media Insights Rules Matched", 
    "source": "aws.chime", 
    "account": number,
    "region": "us-east-1",
    "time": "yyyy-mm-ddThh:mm:ssZ", 
    "resources": [],
    "detail":   {
        "version": "0",
        "sourceMetadata": {}
        "ruleName": "string"
        "utteranceId": "string",
        "beginTimestamp": "yyyy-mm-ddThh:mm:ssZ",
    }
}
```

Einige EventBridge Felder sind spezifisch für den Regeltyp, der zutrifft:

**Felder, die mit Schlüsselwörtern übereinstimmen**  
`utteranceId`: ID des Transkripts, das ein passendes Schlüsselwort enthält, wenn Sie Amazon Transcribe Call Analytics verwenden. Nur für die Übereinstimmung mit gesprochenen Schlüsselwörtern.  
`resultId`: ID des Transkripts, das ein passendes Schlüsselwort enthält, wenn Sie Amazon Transcribe verwenden. Nur für die Übereinstimmung mit gesprochenen Schlüsselwörtern.  
`beginTimestamp`: Startzeit des Transkripts, das ein passendes Schlüsselwort enthält. Nur für die Übereinstimmung mit gesprochenen Schlüsselwörtern.

**Felder für die Stimmungsanalyse**  
`beginTimestamp`: Startzeit des fortlaufenden Zeitfensters für die übereinstimmende Stimmung.  
`endTimestamp`: Endzeit des fortlaufenden Zeitfensters für den passenden Sentiment.

# Einen Amazon Chime SDK-Data Lake erstellen
<a name="ca-data-lake"></a>

Mit dem Amazon Chime SDK Call Analytics Data Lake können Sie Ihre auf maschinellem Lernen basierenden Erkenntnisse und alle Metadaten aus Amazon Kinesis Data Stream in Ihren Amazon S3 S3-Bucket streamen. Verwenden Sie beispielsweise den Data Lake für den Zugriff URLs auf Aufzeichnungen. Um den Data Lake zu erstellen, stellen Sie eine Reihe von AWS CloudFormation Vorlagen entweder über die Amazon Chime SDK-Konsole oder programmgesteuert mithilfe von bereit. AWS CLI Mit dem Data Lake können Sie Ihre Anrufmetadaten und Sprachanalysedaten abfragen, indem Sie auf AWS Glue-Datentabellen in Amazon Athena verweisen.

**Topics**
+ [Voraussetzungen](#data-lake-prereqs)
+ [Terminologie und Konzepte von Data Lakes](#data-lake-terms)
+ [Mehrere Data Lakes erstellen](#creating-multiple-data-lakes)
+ [Regionale Verfügbarkeit von Data Lakes](#data-lake-regions)
+ [Data-Lake-Architektur](#data-lake-architecture)
+ [Einrichtung eines Data Lakes](#data-lake-setup)

## Voraussetzungen
<a name="data-lake-prereqs"></a>

Sie benötigen die folgenden Elemente, um einen Amazon Chime SDK-Lake zu erstellen:
+ Ein Amazon Kinesis Kinesis-Datenstream. Weitere Informationen finden Sie unter [Creating a Stream via the AWS Management Console](https://docs.aws.amazon.com/streams/latest/dev/how-do-i-create-a-stream.html) im *Amazon Kinesis Streams Developer Guide*.
+ Ein S3-Bucket. Weitere Informationen finden Sie unter [Erstellen Sie Ihren ersten Amazon S3 S3-Bucket](https://docs.aws.amazon.com/AmazonS3/latest/userguide/creating-bucket.html) im *Amazon S3 S3-Benutzerhandbuch*.

## Terminologie und Konzepte von Data Lakes
<a name="data-lake-terms"></a>

Verwenden Sie die folgenden Begriffe und Konzepte, um zu verstehen, wie der Data Lake funktioniert.

**Amazon Kinesis Data Firehose**  
Ein ETL-Service (Extrahieren, Transformieren und Laden), der Streaming-Daten zuverlässig erfasst, transformiert und an Data Lakes, Datenspeicher und Analysedienste weiterleitet. Weitere Informationen finden Sie unter Was ist Amazon Kinesis Data Firehose?

**Amazon Athena**  
Amazon Athena ist ein interaktiver Abfrageservice, mit dem Sie Daten in Amazon S3 mithilfe von Standard-SQL analysieren können. Athena ist serverlos, sodass Sie keine Infrastruktur verwalten müssen, und Sie zahlen nur für die Abfragen, die Sie ausführen. Um Athena zu verwenden, verweisen Sie auf Ihre Daten in Amazon S3, definieren Sie das Schema und verwenden Sie Standard-SQL-Abfragen. Sie können Arbeitsgruppen auch verwenden, um Benutzer zu gruppieren und zu kontrollieren, auf welche Ressourcen sie bei der Ausführung von Abfragen Zugriff haben. Arbeitsgruppen ermöglichen es Ihnen, die Parallelität von Abfragen zu verwalten und die Ausführung von Abfragen für verschiedene Benutzergruppen und Workloads zu priorisieren.

**Glue Data Catalog**  
In Amazon Athena enthalten Tabellen und Datenbanken die Metadaten, die ein Schema für die zugrunde liegenden Quelldaten detailliert beschreiben. Für jeden Datensatz muss eine Tabelle in Athena existieren. Die Metadaten in der Tabelle teilen Athena den Standort Ihres Amazon S3 S3-Buckets mit. Es spezifiziert auch die Datenstruktur, wie Spaltennamen, Datentypen und den Namen der Tabelle. Datenbanken enthalten nur die Metadaten und Schemainformationen für einen Datensatz.

## Mehrere Data Lakes erstellen
<a name="creating-multiple-data-lakes"></a>

Es können mehrere Data Lakes erstellt werden, indem ein eindeutiger Glue-Datenbankname angegeben wird, um anzugeben, wo Anrufinformationen gespeichert werden sollen. Für ein bestimmtes AWS Konto kann es mehrere Konfigurationen für Anrufanalysen mit jeweils einem entsprechenden Data Lake geben. Das bedeutet, dass die Datentrennung für bestimmte Anwendungsfälle angewendet werden kann, z. B. für die Anpassung der Aufbewahrungsrichtlinien und die Zugriffsrichtlinien für die Speicherung der Daten. Für den Zugriff auf Erkenntnisse, Aufzeichnungen und Metadaten können unterschiedliche Sicherheitsrichtlinien angewendet werden.

## Regionale Verfügbarkeit von Data Lakes
<a name="data-lake-regions"></a>

Der Amazon Chime SDK Data Lake ist in den folgenden Regionen verfügbar.


| Region | Klebetabellen | Schnell | 
| --- | --- | --- | 
| us-east-1 | Available (Verfügbar) | Available (Verfügbar) | 
| us-west-2 | Available (Verfügbar) | Available (Verfügbar) | 
| eu-central-1 | Available (Verfügbar) | Available (Verfügbar) | 

## Data-Lake-Architektur
<a name="data-lake-architecture"></a>

Das folgende Diagramm zeigt die Data-Lake-Architektur. Die Zahlen in der Zeichnung entsprechen dem unten stehenden nummerierten Text.

![\[Der Programmfluss durchläuft einen Data Lake.\]](http://docs.aws.amazon.com/de_de/chime-sdk/latest/dg/images/call-analytics-data-lake-architecture.png)


Sobald Sie im Diagramm die AWS Konsole zum Bereitstellen der CloudFormation Vorlage aus dem Workflow zur Einrichtung der Media Insights-Pipeline-Konfiguration verwenden, fließen die folgenden Daten in den Amazon S3 S3-Bucket:

1. Die Amazon Chime SDK-Anrufanalysen beginnen mit dem Streaming von Echtzeitdaten in den Kinesis Data Stream des Kunden. 

1. Amazon Kinesis Firehose speichert diese Echtzeitdaten, bis sie 128 MB oder 60 Sekunden angesammelt haben, je nachdem, was zuerst eintritt. Firehose verwendet dann den `amazon_chime_sdk_call_analytics_firehose_schema` im Glue-Datenkatalog enthaltenen, um die Daten zu komprimieren, und wandelt die JSON-Datensätze in eine Parquet-Datei um.

1. Die Parkettdatei befindet sich in Ihrem Amazon S3 S3-Bucket in einem partitionierten Format.

1. Neben Echtzeitdaten werden auch Zusammenfassungen von Amazon Transcribe Call Analytics in Form von WAV-Dateien (geschwärzt und nicht geschwärzt, sofern in der Konfiguration angegeben) und WAV-Dateien für die Anrufaufzeichnung an Ihren Amazon S3 S3-Bucket gesendet. 

1. Sie können Amazon Athena und Standard-SQL verwenden, um die Daten im Amazon S3 S3-Bucket abzufragen.

1. Die CloudFormation Vorlage erstellt auch einen Glue-Datenkatalog, um diese zusammenfassenden Daten nach dem Anruf über Athena abzufragen.

1. Alle Daten im Amazon S3 S3-Bucket können auch mit Quick visualisiert werden. QuickSight baut mithilfe von Amazon Athena eine Verbindung mit einem Amazon S3 S3-Bucket auf.

Die Amazon Athena Athena-Tabelle verwendet die folgenden Funktionen, um die Abfrageleistung zu optimieren:

**Datenpartitionierung**  
Durch die Partitionierung wird Ihre Tabelle in Teile aufgeteilt und die zugehörigen Daten werden anhand von Spaltenwerten wie Datum, Land und Region zusammengefasst. Partitionen verhalten sich wie virtuelle Spalten. In diesem Fall definiert die CloudFormation Vorlage Partitionen bei der Tabellenerstellung, wodurch die pro Abfrage gescannte Datenmenge reduziert und die Leistung verbessert wird. Sie können auch nach Partitionen filtern, um die Menge der von einer Abfrage gescannten Daten einzuschränken. Weitere Informationen finden Sie unter [Partitionierung von Daten in Athena im Amazon Athena](https://docs.aws.amazon.com/athena/latest/ug/partitions.html) *Athena-Benutzerhandbuch*.  
Dieses Beispiel zeigt die Partitionierungsstruktur mit dem Datum 1. Januar 2023:  

1. 

   ```
   s3://example-bucket/amazon_chime_sdk_data_lake
                               /serviceType=CallAnalytics/detailType={DETAIL_TYPE}/year=2023
                               /month=01/day=01/example-file.parquet
   ```

1. wo `DETAIL_TYPE` ist einer der folgenden:

   1. `CallAnalyticsMetadata`

   1. `TranscribeCallAnalytics`

   1. `TranscribeCallAnalyticsCategoryEvents`

   1. `Transcribe`

   1. `Recording`

   1. `VoiceAnalyticsStatus`

   1. `SpeakerSearchStatus`

   1. `VoiceToneAnalysisStatus`

**Optimieren Sie die Generierung von spaltenbasierten Datenspeichern**  
Apache Parquet verwendet spaltenweise Komprimierung, Komprimierung basierend auf dem Datentyp und Prädikat-Pushdown zum Speichern von Daten. Bessere Komprimierungsraten oder das Überspringen von Datenblöcken bedeuten, dass weniger Byte aus Ihrem Amazon S3 S3-Bucket gelesen werden. Das führt zu einer besseren Abfrageleistung und geringeren Kosten. Für diese Optimierung ist die Datenkonvertierung von JSON zu Parquet in Amazon Kinesis Data Firehose aktiviert.

**Partitionsprojektion**  
Diese Athena-Funktion erstellt automatisch Partitionen für jeden Tag, um die Leistung datumsbasierter Abfragen zu verbessern.

## Einrichtung eines Data Lakes
<a name="data-lake-setup"></a>

Verwenden Sie die Amazon Chime SDK-Konsole, um die folgenden Schritte auszuführen.

1. Starten Sie die Amazon Chime SDK-Konsole ([ https://console.aws.amazon.com/chime-sdk/Home](https://console.aws.amazon.com/chime-sdk/home)) und wählen Sie im Navigationsbereich unter **Call Analytics** die Option **Configurations** aus.

1. Schließen Sie Schritt 1 ab, wählen Sie **Weiter** und aktivieren Sie auf der Seite Schritt 2 das Kontrollkästchen **Voice Analytics**.

1. Aktivieren Sie unter **Ausgabedetails** das Kontrollkästchen **Data Warehouse für die Durchführung historischer Analysen** und wählen Sie dann den Link ** CloudFormation Stack bereitstellen** aus.

   Das System leitet Sie zur Seite **Quick Create Stack** in der CloudFormation Konsole weiter.

1. Geben Sie einen Namen für den Stack ein und geben Sie dann die folgenden Parameter ein:

   1. `DataLakeType`— Wählen Sie **Create Call Analytics DataLake**.

   1. `KinesisDataStreamName`— Wähle deinen Stream. Es sollte der Stream sein, der für das Streaming von Anrufanalysen verwendet wird.

   1. `S3BucketURI`— Wählen Sie Ihren Amazon S3 S3-Bucket. Die URI muss das Präfix haben `s3://bucket-name`

   1. `GlueDatabaseName`— Wählen Sie einen eindeutigen Namen für die AWS Glue-Datenbank. Sie können eine bestehende Datenbank im AWS Konto nicht wiederverwenden.

1. Aktivieren Sie das Bestätigungskästchen und wählen Sie dann **Data Lake erstellen** aus. Warten Sie 10 Minuten, bis das System den Lake erstellt hat.

### Einrichtung des Data Lake mit AWS CLI
<a name="data-lake-setup-using-cli"></a>

Wird verwendet AWS CLI , um eine Rolle mit Berechtigungen zum Aufrufen CloudFormation von Create Stack zu erstellen. Gehen Sie wie folgt vor, um die IAM-Rollen zu erstellen und einzurichten. Weitere Informationen finden Sie unter [Erstellen eines Stacks](https://docs.aws.amazon.com/AWSCloudFormation/latest/UserGuide/using-cfn-cli-creating-stack.html) im *AWS CloudFormation Benutzerhandbuch*.

1. Erstellen Sie eine Rolle namens *AmazonChimeSdkCallAnalytics-Datalake-Provisioning-Role und fügen Sie der Rolle* eine Vertrauensrichtlinie hinzu, die es ermöglicht, die Rolle zu übernehmen. CloudFormation 

   1. Erstellen Sie mithilfe der folgenden Vorlage eine IAM-Vertrauensrichtlinie und speichern Sie die Datei im.json-Format.

------
#### [ JSON ]

****  

      ```
      {
          "Version":"2012-10-17",		 	 	 
          "Statement": [
              {
                  "Effect": "Allow",
                  "Principal": {
                      "Service": "cloudformation.amazonaws.com"
                  },
                  "Action": "sts:AssumeRole",
                  "Condition": {}
              }
          ]
      }
      ```

------

   1. Führen Sie den **aws iam create-role** Befehl aus und übergeben Sie die Vertrauensrichtlinie als Parameter.

      ```
                                          aws iam create-role \
          --role-name AmazonChimeSdkCallAnalytics-Datalake-Provisioning-Role
          --assume-role-policy-document file://role-trust-policy.json
      ```

   1. Notieren Sie sich den *Rollen-ARN*, der von der Antwort zurückgegeben wird. Die *Rolle arn* ist im nächsten Schritt erforderlich.

1. Erstellen Sie eine Richtlinie mit der Erlaubnis, einen CloudFormation Stack zu erstellen.

   1. Erstellen Sie eine IAM-Richtlinie mithilfe der folgenden Vorlage und speichern Sie die Datei im JSON-Format. Diese Datei ist erforderlich, wenn Sie create-policy aufrufen.

------
#### [ JSON ]

****  

      ```
      {  
          "Version":"2012-10-17",		 	 	   
          "Statement": [  
              {  
                  "Sid": "DeployCloudFormationStack",  
                  "Effect": "Allow",  
                  "Action": [  
                      "cloudformation:CreateStack"
                  ],
                  "Resource": "*"
              }
          ]
      }
      ```

------

   1. Führen Sie die Create-Stack-Richtlinie aus **aws iam create-policy** und übergeben Sie sie als Parameter.

      ```
                                      aws iam create-policy --policy-name testCreateStackPolicy 
      --policy-document file://create-cloudformation-stack-policy.json
      ```

   1. Notieren Sie sich den *Rollen-ARN*, der von der Antwort zurückgegeben wird. Die *Rolle arn* ist im nächsten Schritt erforderlich.

1. Fügen Sie der Rolle die **aws iam attach-role-policy**-Richtlinie an.

   ```
                               aws iam attach-role-policy --role-name {Role name created above}
   --policy-arn {Policy ARN created above}
   ```

1. Erstellen Sie einen CloudFormation Stack und geben Sie die erforderlichen Parameter ein:**aws cloudformation create-stack**.

   Geben Sie Parameterwerte für jede ParameterKey Verwendung an ParameterValue.

   ```
                               aws cloudformation create-stack  --capabilities CAPABILITY_NAMED_IAM 
   --stack-name testDeploymentStack 
   --template-url https://chime-sdk-assets.s3.amazonaws.com/public_templates/AmazonChimeSDKDataLake.yaml 
   --parameters  ParameterKey=S3BucketURI,ParameterValue={S3 URI}
   ParameterKey=DataLakeType,ParameterValue="Create call analytics datalake" 
   ParameterKey=KinesisDataStreamName,ParameterValue={Name of Kinesis Data Stream}
   --role-arn {Role ARN created above}
   ```

#### Ressourcen, die durch das Data Lake-Setup erstellt wurden
<a name="cf-resources"></a>

In der folgenden Tabelle sind die Ressourcen aufgeführt, die beim Erstellen eines Data Lakes erstellt wurden.

[\[See the AWS documentation website for more details\]](http://docs.aws.amazon.com/de_de/chime-sdk/latest/dg/ca-data-lake.html)

# Konfiguration eines Schnell-Dashboards für das Amazon Chime SDK
<a name="quicksight-setup-setup"></a>

Sobald Sie den Data Lake eingerichtet haben, können Sie ein Schnell-Dashboard mit vordefinierten Metriken konfigurieren, die Ihre Daten visualisieren. Sie können die folgenden Dashboards verwenden:
+ **Transcribe Sie Call Analytics \$1 Voice** Analytics. Zu den Metriken gehören zusammenfassende und detaillierte Grafiken für turn-by-turn Transkripte, erkannte Probleme, Ergebnisse, die Erkennung von Entitäten und die Übereinstimmung mit der Stimmprofil-ID.
+ **Transcribe \$1 Sprachanalyse**. Zu den Metriken gehören Zusammenfassungen und detaillierte Grafiken für turn-by-turn Transkripte, Wortschatzübereinstimmungen, Stimmton und Stimmprofil-ID-Übereinstimmungen.

In den folgenden Themen wird erklärt, wie Sie ein Quick-Konto einrichten, falls Sie noch keines haben, und wie Sie ein Dashboard konfigurieren.

**Topics**
+ [Ein QuickSight Konto erstellen](#create-quicksight-account)
+ [Konfiguration Ihres QuickSight Kontos](#configure-qs-acct)
+ [Ein Dashboard erstellen QuickSight](#create-qs-dashboard)

## Ein QuickSight Konto erstellen
<a name="create-quicksight-account"></a>

In den Schritten in diesem Abschnitt wird erklärt, wie Sie ein Quick-Konto erstellen. Wenn Sie bereits ein Konto haben, können Sie zu wechseln[Ein Dashboard erstellen QuickSight](#create-qs-dashboard).

Sie können ein QuickSight Konto erstellen, indem Sie:
+ Verwenden von CloudFormation Amazon-Vorlagen.
+ Verwenden der Amazon Chime SDK-Konsole.

### Voraussetzungen
<a name="qs-account-prereqs"></a>

Sammeln Sie die folgenden Informationen, bevor Sie beginnen:
+ Der Name Ihres Amazon S3-Buckets für Anrufanalysen.
+ Eine E-Mail-Adresse für Benachrichtigungen. Das System sendet QuickSight Benachrichtigungen an diese Adresse.

### Verwenden von CloudFormation Vorlagen zum Erstellen eines Kontos
<a name="account-by-cft"></a>

In den folgenden Schritten wird erklärt, wie Sie ein Quick-Konto erstellen, indem Sie eine CloudFormation Amazon-Vorlage bereitstellen. Bei diesem Vorgang abonnieren Sie nur ein Enterprise-Konto. Informationen zur Preisgestaltung finden Sie unter [Quick Pricing](https://aws.amazon.com/quicksight/pricing/).

**Um die Vorlage bereitzustellen**

1. Starten Sie die AWS Konsole und melden Sie sich bei Ihrem AWS-Konto an.

1. Fügen Sie die folgende URL in die Adressleiste Ihres Browsers ein. Stellen Sie sicher, dass Sie Ihre Region wie angegeben eingeben.

   `https://region.console.aws.amazon.com/cloudformation/home?region=region#/stacks/quickcreate?templateURL=https://chime-sdk-assets.s3.amazonaws.com/public_templates/AmazonChimeSDKQuickSightSubscription.yaml`.

1. Geben Sie auf der Seite **Quick Create Stack** Folgendes ein:

   1. Geben Sie unter **Stack-Name** einen Namen für Ihr Konto ein.

   1. Unter **QuickSightNotificationEmail**der E-Mail-Adresse, die Sie zuvor gesammelt haben.

   1. Wählen Sie **QuickSightSubscriptionForDataVisualization**unter **Neues AWS QuickSight Konto erstellen** aus.

   1. Geben Sie unter **S3 BucketName** den Namen Ihres Amazon S3 S3-Buckets ein.

   1. Wählen Sie die Option **Ich erkenne an, dass AWS CloudFormation möglicherweise IAM-Ressourcen erstellt**. Kontrollkästchen.

1. Wählen Sie **Stack erstellen** aus.

   Das System benötigt ungefähr 10 Minuten, um den Stack zu erstellen.

1. Wenn der Build abgeschlossen ist, wählen Sie **Go to Quick** und geben Sie Ihre E-Mail-Adresse ein, um sich bei Ihrem Konto anzumelden.

### Verwenden Sie die Konsole, um ein Konto zu erstellen
<a name="account-by-console"></a>

In den folgenden Schritten wird erklärt, wie Sie mit der Amazon Chime SDK-Konsole ein Quick-Konto erstellen. Sie müssen ein Enterprise- oder Enterprise \$1 Q-Konto verwenden.

**So verwenden Sie die -Konsole:**

1. Starten Sie die Amazon Chime SDK-Konsole zu [ https://console.aws.amazon.com/chime-sdk/Hause](https://console.aws.amazon.com/chime-sdk/home)**QuickSight**, suchen Sie nach und wählen Sie **QuickSight**in den Suchergebnissen.  
![\[Ein Suchergebnis, das auf Quick verweist.\]](http://docs.aws.amazon.com/de_de/chime-sdk/latest/dg/images/quicksightsetup-1.png)

1. Wählen **Sie Anmelden für QuickSight**. 

1. Wählen Sie **Enterprise** oder **Enterprise \$1 Q** und dann **Weiter**.

1. Geben Sie Ihren Vornamen, Nachnamen, Telefonnummer und die E-Mail-Adresse ein, die Sie zuvor gesammelt haben, und wählen Sie dann **Weiter**.

1. Gehen Sie wie folgt vor:

   1. Wählen Sie unter **Authentifizierungsmethode** eine Option aus. 
**Anmerkung**  
Wenn Sie die Option mit Verbundbenutzern wählen, benötigen Sie die richtigen IAM-Berechtigungen. Weitere Informationen finden Sie unter [Registrierung für ein Schnellabonnement](https://docs.aws.amazon.com/quicksight/latest/user/signing-up.html) in der *Kurzanleitung für Benutzer*.

   1. Wählen Sie unter **QuickSight Region** eine Region aus.

   1. Geben Sie unter **Kontoinformationen** einen Namen für das Konto und die E-Mail-Adresse ein, die Sie zuvor gesammelt haben.

   1. Verwenden Sie unter **QuickSight Zugriff auf AWS-Services** die Standardrolle oder wählen Sie **Vorhandene Rolle verwenden** und wählen Sie eine Rolle aus der Liste aus.

   1. (Optional) Wählen Sie nach Bedarf unter **Zugriff und automatische Erkennung für diese Ressourcen zulassen** weitere Ressourcen aus.

   1. Wenn Sie fertig sind, wählen Sie **Fertig stellen.**

   1. Wenn der Build abgeschlossen ist, wähle **Gehe zu Quick** und gib deine E-Mail-Adresse ein, um dich bei deinem Konto anzumelden.

## Konfiguration Ihres QuickSight Kontos
<a name="configure-qs-acct"></a>

Nachdem Sie sich bei Ihrem QuickSight Konto angemeldet haben, müssen Sie die Sicherheit konfigurieren und sich selbst zu einer Gruppe hinzufügen, die während des Einrichtungsvorgangs erstellt wurde.

**Um die Sicherheit zu konfigurieren**

1. Wählen Sie das Profilsymbol in der oberen rechten Ecke und dann im daraufhin angezeigten Menü die Option **Verwalten QuickSight** aus.  
![\[Ein Menü mit dem Befehl „Verwalten QuickSight “.\]](http://docs.aws.amazon.com/de_de/chime-sdk/latest/dg/images/quicksightsetup-1-a.png)

1. Wählen Sie im Navigationsbereich die Option **Sicherheit und Berechtigungen** aus.

1. Wählen Sie unter **QuickSight Zugriff auf AWS Dienste** die Option **Verwalten** aus, und stellen Sie sicher, dass die folgenden Dienste ausgewählt sind.
   + Amazon Redshift
   + Amazon RDS
   + Amazon S3
   + Amazon Athena
   +  IAM

1. Wählen Sie den Link **Amazon S3 S3-Buckets auswählen**.

1. Aktivieren Sie das Kontrollkästchen neben Ihrem Amazon S3 S3-Bucket und anschließend das Kontrollkästchen rechts in der Spalte **Schreibberechtigung für Athena Workgroup**.

1. Wählen Sie **Finish** (Abschließen).

1. Wählen Sie **Speichern**.

**Um sich selbst zur Gruppe hinzuzufügen**

1. Wählen Sie im Navigationsbereich **Gruppen verwalten** und dann die Gruppe mit **Admins** im Namen aus. Zum Beispiel *S3 BucketName* — **Admins**.

1. Wählen Sie **Benutzer hinzufügen** und geben Sie dann Ihren E-Mail-Alias in das angezeigte Feld ein.

   Ihr Name erscheint als **Admin —** *Ihr Alias*.

1. Wählen Sie **Hinzufügen** aus.

## Ein Dashboard erstellen QuickSight
<a name="create-qs-dashboard"></a>

Nachdem Sie einen Data Lake erstellt haben, können Sie ein QuickSight Dashboard erstellen, das Ihre Daten visualisiert. Sie können eine CloudFormation Amazon-Vorlage oder die Amazon Chime SDK-Konsole verwenden, um das Dashboard zu erstellen. In den folgenden Schritten werden beide Methoden erklärt.

**Um eine Vorlage zu verwenden**

1. Starten Sie die CloudFormation Amazon-Konsole.

1. Fügen Sie den folgenden Link in die Adressleiste Ihres Browsers ein: `https://region.console.aws.amazon.com/cloudformation/home?region=region#/stacks/quickcreate?templateURL=https://chime-sdk-assets.s3.amazonaws.com/public_templates/AmazonChimeSDKQuickSightDashboards.yaml`

1. Geben Sie auf der Seite **Quick Create** **Stack unter Stackname** einen Namen für das Konto ein.

1. Wählen Sie **ActiveQuickSightAccount**unter **True** aus.

1. Wählen Sie unter **QuicksightDashboardSelection****Call Analytics — Transcribe Call Analytics and Voice Analytics-Dashboard oder Call Analytics** **— Transcribe and Voice Analytics-Dashboard** aus.

1. Geben Sie unter **Amazon S3 BucketName** die URI Ihres Amazon S3 S3-Buckets ein.

1. Geben Sie **GlueDatabaseName**unter die Glue-Datenbank ein, in der das QuickSight Dashboard bereitgestellt werden soll.

1. Aktivieren Sie das Kontrollkästchen **Ich bestätige, dass AWS CloudFormation möglicherweise IAM-Ressourcen erstellt**, und wählen Sie dann **Stack erstellen** aus.

**Um ein QuickSight Dashboard manuell zu konfigurieren**

1. Navigieren Sie zu Ihrem QuickSight Konto.

1. Wählen Sie in der oberen rechten Ecke das Profilsymbol und dann **Verwalten QuickSight** aus.  
![\[Das QuickSight Kontodialogfeld und der QuickSight Befehl „Verwalten“.\]](http://docs.aws.amazon.com/de_de/chime-sdk/latest/dg/images/quicksightsetup-1-a.png)

1. Wählen Sie im Navigationsbereich **Gruppen verwalten** und dann die Gruppe aus, die durch den Einrichtungsprozess erstellt wurde.

1. Wählen Sie „**Benutzer hinzufügen**“, geben Sie Ihre E-Mail-Adresse ein und wählen Sie dann „**Hinzufügen**“.

   Das System benötigt 10 Minuten, um die Seite bereitzustellen.

1. Verwenden Sie die Amazon Chime SDK-Konsole, um sich bei Ihrem QuickSight Konto anzumelden und das Dashboard zu verwenden.