

翻訳は機械翻訳により提供されています。提供された翻訳内容と英語版の間で齟齬、不一致または矛盾がある場合、英語版が優先します。

# 宛先の設定を構成する
<a name="create-destination"></a>

このセクションでは、選択した宛先に基づいて Firehose ストリームのために構成する必要がある設定について説明します。

**Topics**
+ [Amazon S3 の宛先の設定を構成する](#create-destination-s3)
+ [Apache Iceberg テーブルの宛先の設定を構成する](#create-destination-iceberg)
+ [Amazon Redshift の宛先の設定を構成する](#create-destination-redshift)
+ [OpenSearch Service の宛先の設定を構成する](#create-destination-elasticsearch)
+ [OpenSearch Serverless の宛先の設定を構成する](#create-destination-opensearch-serverless)
+ [HTTP エンドポイントの宛先の設定を構成する](#create-destination-http)
+ [Datadog の宛先の設定を構成する](#create-destination-datadog)
+ [Honeycomb の宛先の設定を構成する](#create-destination-honeycomb)
+ [Coralogix の宛先の設定を構成する](#create-destination-coralogix)
+ [Dynatrace の宛先の設定を構成する](#create-destination-dynatrace)
+ [LogicMonitor の宛先の設定を構成する](#create-destination-logicmonitor)
+ [Logz.io の宛先の設定を構成する](#create-destination-logz)
+ [MongoDB Atlas の送信先の設定を構成する](#create-destination-mongodb)
+ [New Relic の宛先の設定を構成する](#create-destination-new-relic)
+ [Snowflake の宛先の設定を構成する](#create-destination-snowflake)
+ [Splunk の宛先の設定を構成する](#create-destination-splunk)
+ [Splunk Observability Cloud の宛先の設定を構成する](#create-destination-splunk-cloud)
+ [Sumo Logic の宛先の設定を構成する](#create-destination-sumo-logic)
+ [Elastic の宛先の設定を構成する](#create-destination-elastic)

## Amazon S3 の宛先の設定を構成する
<a name="create-destination-s3"></a>

Firehose ストリームの宛先として Amazon S3 を使用するには、次の設定を指定する必要があります。

****
+ 以下のフィールドに値を入力します。  
 **S3 バケット**   
ストリーミングデータの配信先となる、お客様が所有している S3 バケットを選択します。新しい S3 バケットを作成するか、既存のバケットを選択することができます。  
 **改行区切り記号**   
Amazon S3 に配信されるオブジェクトのレコード間に改行区切り記号を追加するように Firehose ストリームを設定できます。これを行うには、[**[Enabled (有効)]** をクリックします。Amazon S3 に配信されるオブジェクトのレコード間に改行区切り文字を追加しない場合は、 [**Disabled (無効)**] をクリックします。集約されたレコードを持つ S3 オブジェクトを、Athena を使用してクエリする場合は、このオプションを有効にします。  
 **動的パーティショニング**   
**[Enabled (有効)]** をクリックして、動的パーティショニングを有効にして設定します。  
 **マルチレコードの集約解除**   
これは、Firehose ストリーム内のレコードを解析し、有効な JSON または指定された改行区切り文字に基づいてレコードを分離するプロセスです。  
複数のイベント、ログ、またはレコードを 1 つの PutRecord および PutRecordBatch API コールに集約した場合でも、動的パーティショニングを有効にして設定できます。集約データでは、動的パーティショニングを有効にすると、Amazon Data Firehose はレコードを解析し、各 API コール内で複数の有効な JSON オブジェクトを検索します。Firehose ストリームがソースとして Kinesis Data Stream で設定されている場合、Kinesis Producer Library (KPL) の組み込み集約を使用することもできます。データパーティション機能は、データが集約解除された後に実行されます。したがって、各 API コールの各レコードを異なる Amazon S3 プレフィックスに配信できます。また、Lambda 関数の統合を活用して、データパーティショニング機能の前に、他の集約解除や他の変換を実行することもできます。  
データが集約されている場合、動的パーティショニングは、データの集約解除が実行された後にのみ適用できます。したがって、集約データに対して動的パーティショニングを有効にする場合は、**[Enabled (有効)]** をクリックして、マルチレコード集約解除を有効にします。
Firehose ストリームは、KPL (protobuf) の集約解除、JSON または区切り文字の集約解除、Lambda 処理、データパーティショニング、データ形式変換、および Amazon S3 配信の順序で処理ステップを実行します。  
 **マルチレコードの集約解除のタイプ**   
マルチレコードの集約解除を有効にした場合、Firehose でデータを集約解除する方法を指定する必要があります。ドロップダウンメニューから [**JSON**] または [**Delimited (区切り)**] をクリックします。  
 **インライン解析**   
これは、Amazon S3 にバインドされたデータの動的パーティショニングを行うためにサポートされているメカニズムの 1 つです。データの動的パーティショニングにインライン解析を使用するには、パーティショニングキーとして使用するデータレコードパラメータを指定し、指定したパーティショニングキーの値を提供する必要があります。**[Enabled (有効)]** をクリックして、インライン解析を有効にして設定します。  
上記のステップでソースレコードを変換するために AWS Lambda 関数を指定した場合、この関数を使用して S3 にバインドされたデータを動的にパーティション分割し、インライン解析を使用してパーティショニングキーを作成できます。動的パーティショニングでは、インライン解析または AWS Lambda 関数を使用してパーティショニングキーを作成できます。または、インライン解析と AWS Lambda 関数の両方を同時に使用して、パーティショニングキーを作成できます。  
 **動的パーティショニングキー**   
[**キー**] および [**値**] フィールドを使用して、動的パーティションニングキーとして使用するデータレコードパラメータを指定し、動的パーティショニングキーの値を生成するための jq クエリを指定することができますます。Firehose では jq 1.6 のみをサポートしています。最大 50 個の動的パーティショニングキーを指定できます。Firehose ストリームの動的パーティショニングを正常に設定するには、動的パーティショニングキーの値に有効な jq 式を入力する必要があります。  
 **S3 バケットプレフィックス**   
動的パーティショニングを有効にして設定する場合は、Amazon Data Firehose がパーティション化されたデータを配信する S3 バケットプレフィックスを指定する必要があります。  
動的パーティショニングを正しく設定するには、S3 バケットプレフィクスの数が、指定したパーティショニングキーの数と同じである必要があります。  
 ソースデータは、インライン解析または指定した AWS Lambda 関数でパーティション化できます。ソースデータのパーティショニングキーを作成するために AWS Lambda 関数を指定した場合、「partitionKeyFromLambda:keyID」の形式を使用して S3 バケットプレフィックス値を手動で入力する必要があります。インライン解析を使用してソースデータのパーティショニングキーを指定する場合は、「partitionKeyFromQuery:keyID」の形式を使用して S3 バケットプレビューの値を手動で入力するか、[**動的パーティショニングキーの適用**] ボタンをクリックし、動的パーティショニングキーと値のペアを使用して S3 バケットプレフィックスを自動生成することができます。インライン解析または AWS Lambda を使用してデータをパーティション化するときに、S3 バケットプレフィックス \$1\$1namespace:value\$1 で次の式フォームを使用することもできます。ここで、名前空間は partitionKeyFromQuery または partitionKeyFromLambda のいずれかになります。  
 **S3 バケットと S3 エラー出力プレフィックスのタイムゾーン**   
[Amazon S3 オブジェクトのカスタムプレフィックス](s3-prefixes.md)で日付と時刻で使用するタイムゾーンを選択します。デフォルトでは、Firehose は時刻プレフィックスを UTC で追加します。異なるタイムゾーンを使用する場合は、S3 プレフィックスで使用されるタイムゾーンを変更できます。  
 **バッファリングのヒント**   
Firehose は着信データをバッファリングしてから、指定された宛先にデータを送信します。送信先の推奨バッファサイズは、サービスプロバイダーによって異なります。  
 **S3 圧縮**   
GZIP、Snappy、Zip、または Hadoop 互換の Snappy データ圧縮、またはデータ圧縮なしを選択します。Snappy、Zip、および Hadoop 互換の Snappy 圧縮は、Amazon Redshift を宛先とする Firehose ストリームには使用できません。  
**S3 のファイル拡張子の形式 (オプション)**  
Amazon S3 の宛先バケットに配信されるオブジェクトのファイル拡張子の形式を指定します。この機能を有効にすると、指定されたファイル拡張子は、データ形式変換または .parquet や .gz などの S3 圧縮機能によって付加されたデフォルトのファイル拡張子を上書きします。この機能をデータ形式変換または S3 圧縮で使用する際には、適切なファイル拡張子を設定しているかどうかを確認します。ファイル拡張子はピリオド (.) で始まらなければならず、次の文字を含めることができます: 0-9a-z\$1-\$1.\$1‘()。ファイル拡張子は最大 128 文字です。  
**S3 暗号化**  
Firehose は、Amazon S3 で配信されたデータを暗号化するための AWS Key Management Service (SSE-KMS) による Amazon S3 サーバー側の暗号化をサポートしています。送信先 S3 バケットで指定されたデフォルトの暗号化タイプを使用するか、所有するキーのリストから AWS KMS キーで暗号化するかを選択できます。 AWS KMS キーでデータを暗号化する場合は、デフォルトの AWS マネージドキー (aws/s3) またはカスタマーマネージドキーを使用できます。詳細については、[AWS 「KMS マネージドキーによるサーバー側の暗号化を使用したデータの保護 (SSE-KMS)](https://docs.aws.amazon.com/AmazonS3/latest/userguide/UsingKMSEncryption.html)」を参照してください。

## Apache Iceberg テーブルの宛先の設定を構成する
<a name="create-destination-iceberg"></a>

Firehose は、中国リージョン、アジアパシフィック (台北）、アジアパシフィック (マレーシア）、アジアパシフィック (ニュージーランド) AWS GovCloud (US) Regions、メキシコ (中部) [AWS リージョン](https://docs.aws.amazon.com/glossary/latest/reference/glos-chap.html?icmpid=docs_homepage_addtlrcs#region)を除くすべての で Apache Iceberg Tables を送信先としてサポートしています。

宛先としての Apache Iceberg テーブルの詳細については、「[Amazon Data Firehose を使用して Apache Iceberg テーブルにデータを配信する](apache-iceberg-destination.md)」を参照してください。

## Amazon Redshift の宛先の設定を構成する
<a name="create-destination-redshift"></a>

このセクションでは、Firehose ストリームの宛先として Amazon Redshift を使用するための設定について説明します。

Amazon Redshift プロビジョンドクラスターまたは Amazon Redshift Serverless ワークグループのどちらを使用しているかに基づき、以下の手順のいずれかを選択します。
+ [Amazon Redshift プロビジョンドクラスター](#create-destination-redshift-provisioned)
+ [Amazon Redshift Serverless ワークグループの宛先の設定を構成する](#create-destination-redshift-serverless)
**注記**  
Firehose は、拡張 VPC ルーティングを使用する Amazon Redshift クラスターに書き込むことはできません。

### Amazon Redshift プロビジョンドクラスター
<a name="create-destination-redshift-provisioned"></a>

このセクションでは、Firehose ストリームの宛先として Amazon Redshift プロビジョンドクラスターを使用するときの設定について説明します。

****
+ 以下のフィールドに値を入力します。  
 **クラスター**   
S3 バケットデータのコピー先となる Amazon Redshift クラスター。Amazon Redshift クラスターをパブリックアクセス可能に設定し、Amazon Data Firehose の IP アドレスをブロック解除します。詳細については、「[Amazon Redshift の宛先へのアクセスを Firehose に付与する](controlling-access.md#using-iam-rs)」を参照してください。  
 **認証**   
ユーザー名/パスワードを直接入力するか、 からシークレットを取得 AWS Secrets Manager して Amazon Redshift クラスターにアクセスするかを選択できます。  
  + **[ユーザーネーム]** 

    Amazon Redshift クラスターへの許可がある Amazon Redshift ユーザーを指定します。このユーザーには、S3 バケットから Amazon Redshift クラスターにデータをコピーする Amazon Redshift `INSERT` アクセス許可が必要です。
  + **[パスワード]** 

    クラスターへの許可を持つユーザーのパスワードを指定します。
  + **シークレット**

    Amazon Redshift クラスターの認証情報 AWS Secrets Manager を含むシークレットを から選択します。ドロップダウンリストにシークレットが表示されない場合は、Amazon Redshift の認証情報用に AWS Secrets Manager でシークレットを作成します。詳細については、「[Amazon Data Firehose AWS Secrets Manager で を使用して認証する](using-secrets-manager.md)」を参照してください。  
 **データベース**   
データのコピー先となる Amazon Redshift データベース。  
 **テーブル**   
データのコピー先となる Amazon Redshift テーブル。  
 **列**   
(オプション) データのコピー先となるテーブル内の特定の列。Amazon S3 オブジェクトで定義した列数が Amazon Redshift テーブル内の列数より少ない場合に、このオプションを使用します。  
 **中間の S3 送信先**   <a name="redshift-s3-bucket"></a>
Firehose は最初にデータを S3 バケットに配信してから、Amazon Redshift **COPY** コマンドを発行してデータを Amazon Redshift クラスターにロードします。ストリーミングデータの配信先となる、お客様が所有している S3 バケットを指定します。新しい S3 バケットを作成するか、お客様が所有する既存のバケットを選択します。  
Firehose は、Amazon Redshift クラスターにロードした後で S3 バケットからデータを削除することはしません。ライフサイクル設定を使用して、S3 バケットでデータを管理できます。詳細については、*Amazon Simple Storage Service ユーザーガイド*の「[オブジェクトのライフサイクルの管理](https://docs.aws.amazon.com/AmazonS3/latest/userguide/object-lifecycle-mgmt.html)」を参照してください。  
 **中間の S3 プレフィックス**   
(オプション) Amazon S3 オブジェクトに対してデフォルトのプレフィックスを使用するには、このオプションを空白のままにします。Firehose は、Amazon S3 オブジェクトに提供された「`YYYY/MM/dd/HH`」UTC 時間形式をプレフィックスで自動的に使用する点に注意してください。このプレフィックスの開始に追加できます。詳細については、「[Amazon S3 オブジェクト名の形式を設定する](s3-object-name.md)」を参照してください。  
 **COPY オプション**   <a name="redshift-copy-parameters"></a>
Amazon Redshift **COPY** コマンドで指定できるパラメータです。これらのパラメータは、設定に必要になる場合があります。例えば、Amazon S3 データ圧縮が有効になっている場合は`GZIP`「」が必要です。S3 バケットが Amazon Redshift クラスターと同じ AWS リージョンにない場合は`REGION`「」が必要です。詳細については、*Amazon Redshift データベース開発者ガイド*の「[COPY](https://docs.aws.amazon.com/redshift/latest/dg/r_COPY.html)」を参照してください。  
 **COPY コマンド**   <a name="redshift-copy-command"></a>
Amazon Redshift **COPY** コマンド。詳細については、*Amazon Redshift データベース開発者ガイド*の「[COPY](https://docs.aws.amazon.com/redshift/latest/dg/r_COPY.html)」を参照してください。  
 **再試行の期間**   
Amazon Redshift クラスターへのデータ **COPY** が失敗した場合に Firehose が再試行する時間 (0～7200 秒)です。Firehose は再試行の期間が終了するまで 5 分ごとに再試行します。再試行の期間を 0 (ゼロ) 秒に設定した場合、Firehose は **COPY** コマンドが失敗しても再試行しません。  
 **バッファリングのヒント**   
Firehose は着信データをバッファリングしてから、指定された宛先にデータを送信します。送信先の推奨バッファサイズは、サービスプロバイダーによって異なります。  
 **S3 圧縮**   
GZIP、Snappy、Zip、または Hadoop 互換の Snappy データ圧縮、またはデータ圧縮なしを選択します。Snappy、Zip、および Hadoop 互換の Snappy 圧縮は、Amazon Redshift を宛先とする Firehose ストリームには使用できません。  
**S3 のファイル拡張子の形式 (オプション)**  
S3 のファイル拡張子の形式 (オプション) – Amazon S3 宛先バケットに配信されるオブジェクトのファイル拡張子の形式を指定します。この機能を有効にすると、指定されたファイル拡張子は、データ形式変換または .parquet や .gz などの S3 圧縮機能によって付加されたデフォルトのファイル拡張子を上書きします。この機能をデータ形式変換または S3 圧縮で使用する際には、適切なファイル拡張子を設定しているかどうかを確認します。ファイル拡張子はピリオド (.) で始まらなければならず、次の文字を含めることができます: 0-9a-z\$1-\$1.\$1‘()。ファイル拡張子は最大 128 文字です。  
**S3 暗号化**  
Firehose は、Amazon S3 で配信されたデータを暗号化するための AWS Key Management Service (SSE-KMS) による Amazon S3 サーバー側の暗号化をサポートしています。送信先 S3 バケットで指定されたデフォルトの暗号化タイプを使用するか、所有するキーのリストから AWS KMS キーで暗号化するかを選択できます。 AWS KMS キーでデータを暗号化する場合は、デフォルトの AWS マネージドキー (aws/s3) またはカスタマーマネージドキーを使用できます。詳細については、[AWS 「KMS マネージドキーによるサーバー側の暗号化を使用したデータの保護 (SSE-KMS)](https://docs.aws.amazon.com/AmazonS3/latest/userguide/UsingKMSEncryption.html)」を参照してください。

### Amazon Redshift Serverless ワークグループの宛先の設定を構成する
<a name="create-destination-redshift-serverless"></a>

このセクションでは、Firehose ストリームの宛先として Amazon Redshift Serverless ワークグループを使用するときの設定について説明します。

****
+ 以下のフィールドに値を入力します。  
 **ワークグループ名**   
S3 バケットデータのコピー先となる Amazon Redshift Serverless ワークグループ。Amazon Redshift Serverless ワークグループをパブリックアクセス可能に設定し、Firehose の IP アドレスをブロック解除します。詳細については、「[Amazon Redshift Serverless への接続](https://docs.aws.amazon.com/redshift/latest/mgmt/serverless-connecting.html)」の「パブリックにアクセス可能なときの Amazon Redshift Serverless に接続する」と、「[Amazon Redshift の宛先へのアクセスを Firehose に付与する](controlling-access.md#using-iam-rs)」を参照してください。  
 **認証**   
ユーザー名/パスワードを直接入力するか、 からシークレットを取得 AWS Secrets Manager して Amazon Redshift Serverless ワークグループにアクセスするかを選択できます。  
  + **[ユーザーネーム]** 

    Amazon Redshift Serverless ワークグループへの許可を持つ Amazon Redshift ユーザーを指定します。このユーザーには、S3 バケットから Amazon Redshift Serverless ワークグループにデータをコピーする Amazon Redshift `INSERT` アクセス許可が必要です。
  + **[パスワード]** 

    Amazon Redshift Serverless ワークグループにアクセスするための許可を持っているユーザーのパスワードを指定します。
  + **シークレット**

    Amazon Redshift Serverless ワークグループの認証情報 AWS Secrets Manager を含むシークレットを から選択します。ドロップダウンリストにシークレットが表示されない場合は、Amazon Redshift の認証情報用に AWS Secrets Manager でシークレットを作成します。詳細については、「[Amazon Data Firehose AWS Secrets Manager で を使用して認証する](using-secrets-manager.md)」を参照してください。  
 **データベース**   
データのコピー先となる Amazon Redshift データベース。  
 **テーブル**   
データのコピー先となる Amazon Redshift テーブル。  
 **列**   
(オプション) データのコピー先となるテーブル内の特定の列。Amazon S3 オブジェクトで定義した列数が Amazon Redshift テーブル内の列数より少ない場合に、このオプションを使用します。  
 **中間の S3 送信先**   <a name="redshift-s3-bucket"></a>
Amazon Data Firehose は最初にデータを S3 バケットに配信してから、Amazon Redshift **COPY** コマンドを発行してデータを Amazon Redshift Serverless ワークグループにロードします。ストリーミングデータの配信先となる、お客様が所有している S3 バケットを指定します。新しい S3 バケットを作成するか、お客様が所有する既存のバケットを選択します。  
Firehose は、Amazon Redshift Serverless ワークグループにロードした後は、S3 バケットからデータを削除しません。ライフサイクル設定を使用して、S3 バケットでデータを管理できます。詳細については、*Amazon Simple Storage Service ユーザーガイド*の「[オブジェクトのライフサイクルの管理](https://docs.aws.amazon.com/AmazonS3/latest/userguide/object-lifecycle-mgmt.html)」を参照してください。  
 **中間の S3 プレフィックス**   
(オプション) Amazon S3 オブジェクトに対してデフォルトのプレフィックスを使用するには、このオプションを空白のままにします。Firehose は、Amazon S3 オブジェクトに提供された「`YYYY/MM/dd/HH`」UTC 時間形式をプレフィックスで自動的に使用する点に注意してください。このプレフィックスの開始に追加できます。詳細については、「[Amazon S3 オブジェクト名の形式を設定する](s3-object-name.md)」を参照してください。  
 **COPY オプション**   <a name="redshift-copy-parameters"></a>
Amazon Redshift **COPY** コマンドで指定できるパラメータです。これらのパラメータは、設定に必要になる場合があります。例えば、Amazon S3 データ圧縮が有効になっている場合は`GZIP`「」が必要です。S3 バケットが Amazon Redshift Serverless ワークグループと同じ AWS リージョンにない場合は`REGION`「」が必要です。詳細については、*Amazon Redshift データベース開発者ガイド*の「[COPY](https://docs.aws.amazon.com/redshift/latest/dg/r_COPY.html)」を参照してください。  
 **COPY コマンド**   <a name="redshift-copy-command"></a>
Amazon Redshift **COPY** コマンド。詳細については、*Amazon Redshift データベース開発者ガイド*の「[COPY](https://docs.aws.amazon.com/redshift/latest/dg/r_COPY.html)」を参照してください。  
 **再試行の期間**   
Amazon Redshift Serverless ワークグループへのデータ **COPY** が失敗した場合に Firehose が再試行する時間 (0～7200 秒)。Firehose は再試行の期間が終了するまで 5 分ごとに再試行します。再試行の期間を 0 (ゼロ) 秒に設定した場合、Firehose は **COPY** コマンドが失敗しても再試行しません。  
 **バッファリングのヒント**   
Firehose は着信データをバッファリングしてから、指定された宛先にデータを送信します。送信先の推奨バッファサイズは、サービスプロバイダーによって異なります。  
 **S3 圧縮**   
GZIP、Snappy、Zip、または Hadoop 互換の Snappy データ圧縮、またはデータ圧縮なしを選択します。Snappy、Zip、および Hadoop 互換の Snappy 圧縮は、Amazon Redshift を宛先とする Firehose ストリームには使用できません。  
**S3 のファイル拡張子の形式 (オプション)**  
S3 のファイル拡張子の形式 (オプション) – Amazon S3 宛先バケットに配信されるオブジェクトのファイル拡張子の形式を指定します。この機能を有効にすると、指定されたファイル拡張子は、データ形式変換または .parquet や .gz などの S3 圧縮機能によって付加されたデフォルトのファイル拡張子を上書きします。この機能をデータ形式変換または S3 圧縮で使用する際には、適切なファイル拡張子を設定しているかどうかを確認します。ファイル拡張子はピリオド (.) で始まらなければならず、次の文字を含めることができます: 0-9a-z\$1-\$1.\$1‘()。ファイル拡張子は最大 128 文字です。  
**S3 暗号化**  
Firehose は、Amazon S3 で配信されたデータを暗号化するための AWS Key Management Service (SSE-KMS) による Amazon S3 サーバー側の暗号化をサポートしています。送信先 S3 バケットで指定されたデフォルトの暗号化タイプを使用するか、所有するキーのリストから AWS KMS キーで暗号化するかを選択できます。 AWS KMS キーでデータを暗号化する場合は、デフォルトの AWS マネージドキー (aws/s3) またはカスタマーマネージドキーを使用できます。詳細については、[AWS 「KMS マネージドキーによるサーバー側の暗号化を使用したデータの保護 (SSE-KMS)](https://docs.aws.amazon.com/AmazonS3/latest/userguide/UsingKMSEncryption.html)」を参照してください。

## OpenSearch Service の宛先の設定を構成する
<a name="create-destination-elasticsearch"></a>

Firehose は、Elasticsearch バージョン 1.5、2.3、5.1、5.3、5.5、5.6 と、すべての 6.\$1、7.\$1、8.\$1 バージョンをサポートします。Firehose は Amazon OpenSearch Service 2.x および 3.x をサポートしています。

このセクションでは、送信先に OpenSearch Service を使用するためのオプションについて説明します。

****
+ 以下のフィールドに値を入力します。  
** **OpenSearch Service ドメイン** **  
データの配信先となる OpenSearch Service ドメイン。  
** **インデックス** **  
OpenSearch Service クラスターに対してデータのインデックスを作成するときに使用する OpenSearch Service のインデックス名。  
** **インデックスのローテーション** **  
OpenSearch Service インデックスをローテーションするかどうかと、その頻度を選択します。インデックスのローテーションが有効になっている場合、Amazon Data Firehose は指定されたインデックス名に対応するタイムスタンプを追加し、ローテーションします。詳細については、「[OpenSearch Service のインデックスローテーションを設定する](es-index-rotation.md)」を参照してください。  
** **タイプ** **  
OpenSearch Service クラスターに対してデータのインデックスを作成するときに使用する OpenSearch Service タイプ名。Elasticsearch 7.x と OpenSearch 1.x では、インデックスあたり 1 つのタイプのみが存在できます。既に別のタイプを持つ既存のインデックスに新しいタイプを指定しようとすると、Firehose は実行時にエラーを戻します。  
Elasticsearch 7.x では、このフィールドは空のままにしておきます。  
** **再試行の期間** **  
OpenSearch へのインデックスのリクエストが失敗した場合に Firehose が再試行する時間。再試行期間については、0～7,200 秒の任意の値を設定できます。デフォルトの再試行期間は 300 秒です。Firehose は、再試行期間が終了するまで、エクスポネンシャルバックオフで複数回再試行します。  
再試行期間が終了すると、Firehose は、設定された S3 エラーバケットであるデッドレターキュー (DLQ) にデータを配信します。DLQ に配信されるデータについては、設定された S3 エラーバケットから OpenSearch の宛先にデータをリドライブする必要があります。  
OpenSearch クラスターのダウンタイムまたはメンテナンスを理由として、Firehose ストリームによる DLQ へのデータ配信をブロックしたい場合は、再試行期間を秒単位でより大きい値に設定できます。[AWS サポート](https://aws.amazon.com/contact-us/)に問い合わせて、再試行期間を 7,200 秒超に増やすことができます。  
** **DocumentID タイプ** **  
ドキュメント ID を設定する方法を示します。サポートされている方法は、Firehose が生成したドキュメント ID と OpenSearch Service が生成したドキュメント ID です。Firehose が生成したドキュメント ID は、ドキュメント ID の値が設定されていない場合のデフォルトオプションです。推奨されている方法は OpenSearch Service が生成したドキュメント ID です。ログ分析やオブザーバビリティなど書き込み負荷が高いオペレーションに対応しており、OpenSearch Service ドメインで消費される CPU リソースが少なく、パフォーマンスが向上するためです。  
** **送信先 VPC 接続** **  
OpenSearch Service ドメインがプライベート VPC 内にある場合は、このセクションを使用してその VPC を指定します。また、OpenSearch Service ドメインにデータを送信するときに Amazon Data Firehose で使用するサブネットとサブグループも指定します。OpenSearch Service ドメインで使用しているものと同じセキュリティグループを使用できます。別のセキュリティグループを指定する場合は、そのセキュリティグループで、OpenSearch Service ドメインのセキュリティグループへのアウトバウンド HTTPS トラフィックを必ず許可します。また、OpenSearch Service ドメインのセキュリティグループで、Firehose ストリームの設定時に指定したセキュリティグループからの HTTPS トラフィックを必ず許可します。Firehose ストリームと OpenSearch Service ドメインの両方に同じセキュリティグループを使用する場合は、セキュリティグループのインバウンドルールで HTTPS トラフィックを必ず許可します。セキュリティグループのルールの詳細については、Amazon VPCドキュメントの「[セキュリティグループのルール](https://docs.aws.amazon.com/vpc/latest/userguide/VPC_SecurityGroups.html#SecurityGroupRules)」を参照してください。  
プライベート VPC の宛先にデータを配信するためのサブネットを指定する場合は、選択したサブネットに十分な数の空き IP アドレスがあることを確認してください。指定されたサブネットに使用可能な空き IP アドレスがない場合、Firehose はプライベート VPC でデータ配信用の ENI を作成または追加できず、配信のパフォーマンスが低下するか、または配信が失敗します。  
**バッファリングのヒント**  
Amazon Data Firehose は着信データをバッファリングしてから、指定された宛先にデータを送信します。送信先の推奨バッファサイズは、サービスプロバイダーによって異なります。

## OpenSearch Serverless の宛先の設定を構成する
<a name="create-destination-opensearch-serverless"></a>

このセクションでは、送信先に OpenSearch Serverless を使用する方法ついて説明します。

****
+ 以下のフィールドに値を入力します。  
** **OpenSearch Serverless コレクション** **  
データの配信先となる OpenSearch Serverless インデックスのグループのエンドポイント。  
** **[Index]** (インデックス) **  
OpenSearch Serverless コレクションにデータのインデックスを作成するときに使用する OpenSearch Serverless のインデックス名。  
** **送信先 VPC 接続** **  
OpenSearch Serverless コレクションがプライベート VPC 内にある場合は、このセクションを使用してその VPC を指定します。また、OpenSearch Serverless コレクションにデータを送信するときに Amazon Data Firehose で使用するサブネットとサブグループも指定します。  
プライベート VPC の宛先にデータを配信するためのサブネットを指定する場合は、選択したサブネットに十分な数の空き IP アドレスがあることを確認してください。指定されたサブネットに使用可能な空き IP アドレスがない場合、Firehose はプライベート VPC でデータ配信用の ENI を作成または追加できず、配信のパフォーマンスが低下するか、または配信が失敗します。  
** **再試行の期間** **  
OpenSearch Serverless へのインデックスのリクエストが失敗した場合に Firehose が再試行する時間。再試行期間については、0～7,200 秒の任意の値を設定できます。デフォルトの再試行期間は 300 秒です。Firehose は、再試行期間が終了するまで、エクスポネンシャルバックオフで複数回再試行します。  
再試行期間が終了すると、Firehose は、設定された S3 エラーバケットであるデッドレターキュー (DLQ) にデータを配信します。DLQ に配信されるデータについては、設定された S3 エラーバケットから OpenSearch Serverless の宛先にデータをリドライブする必要があります。  
OpenSearch Serverless クラスターのダウンタイムまたはメンテナンスを理由として、Firehose ストリームによる DLQ へのデータ配信をブロックしたい場合は、再試行期間を秒単位でより大きい値に設定できます。[AWS サポート](https://aws.amazon.com/contact-us/)に問い合わせて、再試行期間を 7,200 秒超に増やすことができます。  
**バッファリングのヒント**  
Amazon Data Firehose は着信データをバッファリングしてから、指定された宛先にデータを送信します。送信先の推奨バッファサイズは、サービスプロバイダーによって異なります。

## HTTP エンドポイントの宛先の設定を構成する
<a name="create-destination-http"></a>

このセクションでは、送信先に **HTTP エンドポイント**を使用するためのオプションについて説明します。

**重要**  
HTTP エンドポイントを送信先として選択した場合は、[HTTP エンドポイント配信リクエストとレスポンスの仕様を理解する](httpdeliveryrequestresponse.md) の手順を確認して従ってください。

****
+ 以下のフィールドに値を入力します。  
 **HTTP エンドポイント名 - オプション**   
HTTP エンドポイントのわかりやすい名前を指定します。例えば、`My HTTP Endpoint Destination`。  
 **HTTP エンドポイント URL**   
HTTP エンドポイントの URL を次の形式で指定します: `https://xyz.httpendpoint.com`。URL は HTTPS URL であることが必要です。  
 **認証**   
アクセスキーを直接入力するか、 からシークレットを取得 AWS Secrets Manager して HTTP エンドポイントにアクセスするかを選択できます。  
  + **(オプション) アクセスキー** 

    Firehose からエンドポイントへのデータ配信を有効にするためにアクセスキーを取得する必要がある場合は、エンドポイントの所有者に連絡します。
  + **シークレット**

    HTTP エンドポイントのアクセスキー AWS Secrets Manager を含むシークレットを から選択します。ドロップダウンリストにシークレットが表示されない場合は、アクセスキー AWS Secrets Manager の にシークレットを作成します。詳細については、「[Amazon Data Firehose AWS Secrets Manager で を使用して認証する](using-secrets-manager.md)」を参照してください。  
 **コンテンツのエンコーディング**   
Amazon Data Firehose は、リクエストを宛先に送信する前に、コンテンツのエンコードを使用してリクエストの本文を圧縮します。[**GZIP**] または [**Disabled (無効)**] をクリックして、リクエストのコンテンツエンコーディングを有効/無効にします。  
 **再試行の期間**   
選択された HTTP エンドポイントへのデータの送信を Amazon Data Firehose が再試行する時間を指定します。  
データの送信後、Amazon Data Firehose はまず HTTP エンドポイントからの送達確認を待機します。エラーが発生した場合、または確認タイムアウト期間内に確認が到着しない場合、Amazon Data Firehose で再試行期間カウンターが開始されます。再試行期間が終わるまで再試行が続けられます。その後、Amazon Data Firehose はデータ配信が失敗したとみなしてデータを Amazon S3 バケットにバックアップします。  
Amazon Data Firehose がデータを HTTP エンドポイントに送信するたびに (初回か再試行かにかかわらず)、確認応答タイムアウトカウンターが再度開始され、HTTP エンドポイントからの確認応答を待機します。  
再試行期間が切れた場合でも、Amazon Data Firehose は確認応答が到着するか確認応答タイムアウト期間に達するまで確認応答を待機し続けます。確認がタイムアウトすると、Amazon Data Firehose は再試行カウンターの残り時間があるかどうかを判別します。残り時間がある場合は、確認が到着するか再試行時間が切れたと判断されるまで再試行されロジックが繰り返されます。  
Amazon Data Firehose でデータの送信を再試行しない場合は、この値を 0 に設定します。  
 **Parameters - オプション**   
Amazon Data Firehose では、各 HTTP コールにこれらのキーと値のペアが含まれます。これらのパラメータを使用すると、送信先の識別や整理に役立ちます。  
 **バッファリングのヒント**   
Amazon Data Firehose は着信データをバッファリングしてから、指定された宛先にデータを送信します。送信先の推奨バッファサイズは、サービスプロバイダーによって異なります。  
HTTP エンドポイントの宛先で、CloudWatch Logs で宛先エンドポイントからの 413 のレスポンスコードが表示される場合は、Firehose ストリームのバッファリングのヒントサイズを小さくして、もう一度試してください。

## Datadog の宛先の設定を構成する
<a name="create-destination-datadog"></a>

このセクションでは、送信先に **Datadog** を使用するためのオプションについて説明します。Datadog の詳細については、「[https://docs.datadoghq.com/integrations/amazon\$1web\$1services/](https://docs.datadoghq.com/integrations/amazon_web_services/)」を参照してください。

****
+ 次のフィールドに値を入力します。  
 **HTTP エンドポイント URL**   
ドロップダウンメニューで、次のいずれかのオプションからデータを送信する場所を選択します。  
  + **Datadog ログ - US1**
  + **Datadog ログ - US3**
  + **Datadog ログ - US5**
  + **Datadog ログ - AP1**
  + **Datadog ログ - EU**
  + **Datadog ログ - GOV**
  + **Datadog メトリクス - 米国**
  + **Datadog メトリクス - US5**
  + **Datadog メトリクス - AP1**
  + **Datadog メトリクス - EU**
  + **Datadog の設定 - US1**
  + **Datadog の設定 - US3**
  + **Datadog の設定 - US5**
  + **Datadog の設定 - AP1**
  + **Datadog の設定 - EU**
  + **Datadog の設定 - US GOV**  
 **認証**   
API キーを直接入力するか、 からシークレットを取得 AWS Secrets Manager して Datadog にアクセスするかを選択できます。  
  + **API キー** 

    Datadog に連絡し、Firehose からこのエンドポイントへのデータ配信を有効にするために必要な API キーを取得します。
  + **シークレット**

    Datadog の API キー AWS Secrets Manager を含むシークレットを から選択します。ドロップダウンリストにシークレットが表示されない場合は、 AWS Secrets Managerでシークレットを作成します。詳細については、「[Amazon Data Firehose AWS Secrets Manager で を使用して認証する](using-secrets-manager.md)」を参照してください。  
 **コンテンツのエンコーディング**   
Amazon Data Firehose は、リクエストを宛先に送信する前に、コンテンツのエンコードを使用してリクエストの本文を圧縮します。[**GZIP**] または [**Disabled (無効)**] をクリックして、リクエストのコンテンツエンコーディングを有効/無効にします。  
 **再試行の期間**   
選択された HTTP エンドポイントへのデータの送信を Amazon Data Firehose が再試行する時間を指定します。  
データの送信後、Amazon Data Firehose はまず HTTP エンドポイントからの送達確認を待機します。エラーが発生した場合、または確認タイムアウト期間内に確認が到着しない場合、Amazon Data Firehose で再試行期間カウンターが開始されます。再試行期間が終わるまで再試行が続けられます。その後、Amazon Data Firehose はデータ配信が失敗したとみなしてデータを Amazon S3 バケットにバックアップします。  
Amazon Data Firehose がデータを HTTP エンドポイントに送信するたびに (初回か再試行かにかかわらず)、確認応答タイムアウトカウンターが再度開始され、HTTP エンドポイントからの確認応答を待機します。  
再試行期間が切れた場合でも、Amazon Data Firehose は確認応答が到着するか確認応答タイムアウト期間に達するまで確認応答を待機し続けます。確認がタイムアウトすると、Amazon Data Firehose は再試行カウンターの残り時間があるかどうかを判別します。残り時間がある場合は、確認が到着するか再試行時間が切れたと判断されるまで再試行されロジックが繰り返されます。  
Amazon Data Firehose でデータの送信を再試行しない場合は、この値を 0 に設定します。  
 **Parameters - オプション**   
Amazon Data Firehose では、各 HTTP コールにこれらのキーと値のペアが含まれます。これらのパラメータを使用すると、送信先の識別や整理に役立ちます。  
 **バッファリングのヒント**   
Amazon Data Firehose は着信データをバッファリングしてから、指定された宛先にデータを送信します。送信先の推奨バッファサイズは、サービスプロバイダーによって異なります。

## Honeycomb の宛先の設定を構成する
<a name="create-destination-honeycomb"></a>

このセクションでは、送信先に **Honeycomb** を使用する方法について説明します。Honeycomb の詳細については、[https://docs.honeycomb.io/getting-data-in/metrics/aws-cloudwatch-metrics/](https://docs.honeycomb.io/getting-data-in/metrics/aws-cloudwatch-metrics/ ) を参照してください。

****
+ 以下のフィールドに値を入力します。  
 **Honeycomb Kinesis エンドポイント**   
HTTP エンドポイントの URL を次の形式で指定します。: https://api.honeycomb.io/1/kinesis\$1events/\$1\$1dataset\$1\$1   
 **認証**   
API キーを直接入力するか、 からシークレットを取得 AWS Secrets Manager して Honeycomb にアクセスするかを選択できます。  
  + **API キー** 

    Honeycomb に連絡し、Firehose からこのエンドポイントへのデータ配信を有効にするために必要な API キーを取得します。
  + **シークレット**

    Honeycomb の API キー AWS Secrets Manager を含むシークレットを から選択します。ドロップダウンリストにシークレットが表示されない場合は、 AWS Secrets Managerでシークレットを作成します。詳細については、「[Amazon Data Firehose AWS Secrets Manager で を使用して認証する](using-secrets-manager.md)」を参照してください。  
 **コンテンツのエンコーディング**   
Amazon Data Firehose は、リクエストを宛先に送信する前に、コンテンツのエンコードを使用してリクエストの本文を圧縮します。**[GZIP]** を選択して、リクエストのコンテンツエンコーディングを有効にします。こちらは、Honeycomb が送信先である場合に推奨される方法です。  
 **再試行の期間**   
選択された HTTP エンドポイントへのデータの送信を Amazon Data Firehose が再試行する時間を指定します。  
データの送信後、Amazon Data Firehose はまず HTTP エンドポイントからの送達確認を待機します。エラーが発生した場合、または確認タイムアウト期間内に確認が到着しない場合、Amazon Data Firehose で再試行期間カウンターが開始されます。再試行期間が終わるまで再試行が続けられます。その後、Amazon Data Firehose はデータ配信が失敗したとみなしてデータを Amazon S3 バケットにバックアップします。  
Amazon Data Firehose がデータを HTTP エンドポイントに送信するたびに (初回か再試行かにかかわらず)、確認応答タイムアウトカウンターが再度開始され、HTTP エンドポイントからの確認応答を待機します。  
再試行期間が切れた場合でも、Amazon Data Firehose は確認応答が到着するか確認応答タイムアウト期間に達するまで確認応答を待機し続けます。確認がタイムアウトすると、Amazon Data Firehose は再試行カウンターの残り時間があるかどうかを判別します。残り時間がある場合は、確認が到着するか再試行時間が切れたと判断されるまで再試行されロジックが繰り返されます。  
Amazon Data Firehose でデータの送信を再試行しない場合は、この値を 0 に設定します。  
 **Parameters - オプション**   
Amazon Data Firehose では、各 HTTP コールにこれらのキーと値のペアが含まれます。これらのパラメータを使用すると、送信先の識別や整理に役立ちます。  
 **バッファリングのヒント**   
Amazon Data Firehose は着信データをバッファリングしてから、指定された宛先にデータを送信します。送信先の推奨バッファサイズは、サービスプロバイダーによって異なります。

## Coralogix の宛先の設定を構成する
<a name="create-destination-coralogix"></a>

このセクションでは、送信先に **Coralogix** を使用する方法について説明します。Coralogix の詳細については、「[Get Started with Coralogix](https://coralogix.com/docs/guide-first-steps-coralogix/)」を参照してください。

****
+ 以下のフィールドに値を入力します。  
 **HTTP エンドポイント URL**   
ドロップダウンメニューの次のオプションから HTTP エンドポイント URL を選択します。  
  + **Coralogix - 米国**
  + **Coralogix - シンガポール**
  + **Coralogix - アイルランド**
  + **Coralogix - インド**
  + **Coralogix - ストックホルム**  
 **認証**   
プライベートキーを直接入力するか、 からシークレットを取得 AWS Secrets Manager して Coralogix にアクセスできます。  
  + **プライベートキー** 

    Coralogix に連絡し、Firehose からこのエンドポイントへのデータ配信を有効にするために必要なプライベートキーを取得します。
  + **シークレット**

    Coralogix のプライベートキー AWS Secrets Manager を含むシークレットを から選択します。ドロップダウンリストにシークレットが表示されない場合は、 AWS Secrets Managerでシークレットを作成します。詳細については、「[Amazon Data Firehose AWS Secrets Manager で を使用して認証する](using-secrets-manager.md)」を参照してください。  
 **コンテンツのエンコーディング**   
Amazon Data Firehose は、リクエストを宛先に送信する前に、コンテンツのエンコードを使用してリクエストの本文を圧縮します。**[GZIP]** を選択して、リクエストのコンテンツエンコーディングを有効にします。こちらは、Coralogix が送信先である場合に推奨される方法です。  
 **再試行の期間**   
選択された HTTP エンドポイントへのデータの送信を Amazon Data Firehose が再試行する時間を指定します。  
データの送信後、Amazon Data Firehose はまず HTTP エンドポイントからの送達確認を待機します。エラーが発生した場合、または確認タイムアウト期間内に確認が到着しない場合、Amazon Data Firehose で再試行期間カウンターが開始されます。再試行期間が終わるまで再試行が続けられます。その後、Amazon Data Firehose はデータ配信が失敗したとみなしてデータを Amazon S3 バケットにバックアップします。  
Amazon Data Firehose がデータを HTTP エンドポイントに送信するたびに (初回か再試行かにかかわらず)、確認応答タイムアウトカウンターが再度開始され、HTTP エンドポイントからの確認応答を待機します。  
再試行期間が切れた場合でも、Amazon Data Firehose は確認応答が到着するか確認応答タイムアウト期間に達するまで確認応答を待機し続けます。確認がタイムアウトすると、Amazon Data Firehose は再試行カウンターの残り時間があるかどうかを判別します。残り時間がある場合は、確認が到着するか再試行時間が切れたと判断されるまで再試行されロジックが繰り返されます。  
Amazon Data Firehose でデータの送信を再試行しない場合は、この値を 0 に設定します。  
 **Parameters - オプション**   
Amazon Data Firehose では、各 HTTP コールにこれらのキーと値のペアが含まれます。これらのパラメータを使用すると、送信先の識別や整理に役立ちます。  
  + applicationName: Data Firehose を実行している環境
  + subsystemName: Data Firehose 統合の名前
  + computerName: 使用中の Firehose ストリームの名前  
 **バッファリングのヒント**   
Amazon Data Firehose は着信データをバッファリングしてから、指定された宛先にデータを送信します。宛先に推奨されるバッファリングサイズは、サービスプロバイダーによって異なります。

## Dynatrace の宛先の設定を構成する
<a name="create-destination-dynatrace"></a>

このセクションでは、送信先に **Dynatrace** を使用するためのオプションについて説明します。詳細については、「[https://www.dynatrace.com/support/help/technology-support/cloud-platforms/amazon-web-services/integrations/cloudwatch-metric-streams/](https://www.dynatrace.com/support/help/technology-support/cloud-platforms/amazon-web-services/integrations/cloudwatch-metric-streams/)」を参照してください。

****
+ Firehose ストリームの宛先として Dynatrace を使用するオプションを選択します。  
 **取り込みタイプ**   
さらなる分析と処理のために Dynatrace で **[メトリクス]** または **[ログ]** (デフォルト) を配信するかどうかを選択します。  
 **HTTP エンドポイント URL**   
ドロップダウンメニューから、HTTP エンドポイント URL (**Dynatrace US**、**Dynatrace EU**、または **Dynatrace Global**) を選択します。  
 **認証**   
API トークンを直接入力するか、 からシークレットを取得 AWS Secrets Manager して Dynatrace にアクセスするかを選択できます。  
  + **API トークン** 

    Firehose からこのエンドポイントへのデータ配信を有効にするために必要な Dynatrace API トークンを生成します。詳細については、「[Dynatrace API - Tokens and authentication](https://docs.dynatrace.com/docs/dynatrace-api/basics/dynatrace-api-authentication)」を参照してください。
  + **シークレット**

    Dynatrace の API トークン AWS Secrets Manager を含むシークレットを から選択します。ドロップダウンリストにシークレットが表示されない場合は、 AWS Secrets Managerでシークレットを作成します。詳細については、「[Amazon Data Firehose AWS Secrets Manager で を使用して認証する](using-secrets-manager.md)」を参照してください。  
 **API URL**   
Dynatrace 環境の API URL を指定します。  
 **コンテンツのエンコーディング**   
リクエストの本文を圧縮するためにコンテンツエンコーディングを有効にするかどうかを選択します。Amazon Data Firehose は、リクエストを宛先に送信する前に、コンテンツのエンコードを使用してリクエストの本文を圧縮します。有効にすると、圧縮したコンテンツが **GZIP** 形式で表示されます。  
 **再試行の期間**   
選択された HTTP エンドポイントへのデータの送信を Firehose が再試行する時間を指定します。  
データの送信後、Firehose はまず HTTP エンドポイントからの送達確認を待機します。エラーが発生した場合、または確認タイムアウト期間内に確認が到着しない場合、Firehose は、再試行期間カウンターを開始します。再試行期間が終わるまで再試行が続けられます。その後、Firehose はデータ配信が失敗したとみなしてデータを Amazon S3 バケットにバックアップします。  
Firehose がデータを HTTP エンドポイントに送信するたびに (初回試行中または再試行後のいずれかにかかわらず)、確認応答タイムアウトカウンターが再度開始され、HTTP エンドポイントからの確認応答を待機します。  
再試行期間が切れた場合でも、Firehose は、確認応答が到着するか確認応答タイムアウト期間に達するまで確認応答を待機し続けます。確認がタイムアウトすると、Firehose は再試行カウンターの残り時間があるかどうかを判別します。残り時間がある場合は、確認が到着するか再試行時間が切れたと判断されるまで再試行されロジックが繰り返されます。  
Firehose でデータの送信を再試行しない場合は、この値を 0 に設定します。  
 **Parameters - オプション**   
Amazon Data Firehose では、各 HTTP コールにこれらのキーと値のペアが含まれます。これらのパラメータを使用すると、送信先の識別や整理に役立ちます。  
**バッファリングのヒント**  
Amazon Data Firehose は着信データをバッファリングしてから、指定された宛先にデータを送信します。バッファリングのヒントには、ストリームのバッファリングサイズと間隔が含まれます。宛先に推奨されるバッファリングサイズは、サービスプロバイダーによって異なります。

## LogicMonitor の宛先の設定を構成する
<a name="create-destination-logicmonitor"></a>

このセクションでは、送信先に **LogicMonitor** を使用するためのオプションについて説明します。詳細については、「[https://www.logicmonitor.com](https://www.logicmonitor.com)」を参照してください。

****
+ 以下のフィールドに値を入力します。  
 **HTTP エンドポイント URL**   
HTTP エンドポイントの URL を次の形式で指定します。  

  ```
  https://ACCOUNT.logicmonitor.com
  ```  
 **認証**   
API キーを直接入力するか、 からシークレットを取得 AWS Secrets Manager して LogicMonitor にアクセスするかを選択できます。  
  + **API キー** 

    LogicMonitor に連絡し、Firehose からこのエンドポイントへのデータ配信を有効にするために必要な API キーを取得します。
  + **シークレット**

    LogicMonitor の API キー AWS Secrets Manager を含むシークレットを から選択します。ドロップダウンリストにシークレットが表示されない場合は、 AWS Secrets Managerでシークレットを作成します。詳細については、「[Amazon Data Firehose AWS Secrets Manager で を使用して認証する](using-secrets-manager.md)」を参照してください。  
 **コンテンツのエンコーディング**   
Amazon Data Firehose は、リクエストを宛先に送信する前に、コンテンツのエンコードを使用してリクエストの本文を圧縮します。[**GZIP**] または [**Disabled (無効)**] をクリックして、リクエストのコンテンツエンコーディングを有効/無効にします。  
 **再試行の期間**   
選択された HTTP エンドポイントへのデータの送信を Amazon Data Firehose が再試行する時間を指定します。  
データの送信後、Amazon Data Firehose はまず HTTP エンドポイントからの送達確認を待機します。エラーが発生した場合、または確認タイムアウト期間内に確認が到着しない場合、Amazon Data Firehose で再試行期間カウンターが開始されます。再試行期間が終わるまで再試行が続けられます。その後、Amazon Data Firehose はデータ配信が失敗したとみなしてデータを Amazon S3 バケットにバックアップします。  
Amazon Data Firehose がデータを HTTP エンドポイントに送信するたびに (初回か再試行かにかかわらず)、確認応答タイムアウトカウンターが再度開始され、HTTP エンドポイントからの確認応答を待機します。  
再試行期間が切れた場合でも、Amazon Data Firehose は確認応答が到着するか確認応答タイムアウト期間に達するまで確認応答を待機し続けます。確認がタイムアウトすると、Amazon Data Firehose は再試行カウンターの残り時間があるかどうかを判別します。残り時間がある場合は、確認が到着するか再試行時間が切れたと判断されるまで再試行されロジックが繰り返されます。  
Amazon Data Firehose でデータの送信を再試行しない場合は、この値を 0 に設定します。  
 **Parameters - オプション**   
Amazon Data Firehose では、各 HTTP コールにこれらのキーと値のペアが含まれます。これらのパラメータを使用すると、送信先の識別や整理に役立ちます。  
 **バッファリングのヒント**   
Amazon Data Firehose は着信データをバッファリングしてから、指定された宛先にデータを送信します。送信先の推奨バッファサイズは、サービスプロバイダーによって異なります。

## Logz.io の宛先の設定を構成する
<a name="create-destination-logz"></a>

このセクションでは、送信先に **Logz.io** を使用する方法について説明します。詳細については、[https://logz.io/](https://logz.io/) を参照してください。

**注記**  
欧州 (ミラノ) リージョンでは、Logz.io は Amazon Data Firehose の宛先としてサポートされていません。

****
+ 以下のフィールドに値を入力します。  
 **HTTP エンドポイント URL**   
HTTP エンドポイントの URL を次の形式で指定します。URL は `HTTPS` URL である必要があります。  

  ```
  https://listener-aws-metrics-stream-<region>.logz.io/
  ```
例  

  ```
  https://listener-aws-metrics-stream-us.logz.io/
  ```  
 **認証**   
 AWS Secrets Manager にアクセスするには、配送トークンを直接入力するか、 からシークレットを取得することができます Logz.io 。  
  + **シッピングトークン** 

    Firehose からこのエンドポイントへのデータ配信を有効にするために必要なシッピングトークンを取得するには、Logz.io にお問い合わせください。
  + **シークレット**

    Logz.io の配送トークン AWS Secrets Manager を含むシークレットを から選択します。ドロップダウンリストにシークレットが表示されない場合は、 AWS Secrets Managerでシークレットを作成します。詳細については、「[Amazon Data Firehose AWS Secrets Manager で を使用して認証する](using-secrets-manager.md)」を参照してください。  
 **再試行の期間**   
Amazon Data Firehose が Logz.io へのデータ送信を再試行する期間を指定します。  
データの送信後、Amazon Data Firehose はまず HTTP エンドポイントからの送達確認を待機します。エラーが発生した場合、または確認タイムアウト期間内に確認が到着しない場合、Amazon Data Firehose で再試行期間カウンターが開始されます。再試行期間が終わるまで再試行が続けられます。その後、Amazon Data Firehose はデータ配信が失敗したとみなしてデータを Amazon S3 バケットにバックアップします。  
Amazon Data Firehose がデータを HTTP エンドポイントに送信するたびに (初回か再試行かにかかわらず)、確認応答タイムアウトカウンターが再度開始され、HTTP エンドポイントからの確認応答を待機します。  
再試行期間が切れた場合でも、Amazon Data Firehose は確認応答が到着するか確認応答タイムアウト期間に達するまで確認応答を待機し続けます。確認がタイムアウトすると、Amazon Data Firehose は再試行カウンターの残り時間があるかどうかを判別します。残り時間がある場合は、確認が到着するか再試行時間が切れたと判断されるまで再試行されロジックが繰り返されます。  
Amazon Data Firehose でデータの送信を再試行しない場合は、この値を 0 に設定します。  
 **Parameters - オプション**   
Amazon Data Firehose では、各 HTTP コールにこれらのキーと値のペアが含まれます。これらのパラメータを使用すると、送信先の識別や整理に役立ちます。  
 **バッファリングのヒント**   
Amazon Data Firehose は着信データをバッファリングしてから、指定された宛先にデータを送信します。送信先の推奨バッファサイズは、サービスプロバイダーによって異なります。

## MongoDB Atlas の送信先の設定を構成する
<a name="create-destination-mongodb"></a>

このセクションでは、送信先に **MongoDB Atlas** を使用するためのオプションについて説明します。詳細については、「[MongoDB Atlas を Amazon Web Services で実行](https://www.mongodb.com/products/platform/atlas-cloud-providers/aws)」を参照してください。

****
+ 以下のフィールドに値を入力します。  
**API Gateway URL**  
HTTP エンドポイントの URL を次の形式で指定します。  

  ```
   https://xxxxx.execute-api.region.amazonaws.com/stage
  ```
URL は `HTTPS` URL である必要があります。  
 **認証**   
API キーを直接入力するか、 からシークレットを取得 AWS Secrets Manager して MongoDB Atlas にアクセスするかを選択できます。  
  + **API キー** 

    「[MongoDB Atlas を Amazon Web Services で実行](https://www.mongodb.com/products/platform/atlas-cloud-providers/aws)」の指示に従って、Firehose からこのエンドポイントへのデータ配信を有効にするために必要な `APIKeyValue` を取得します。
  + **シークレット**

    MongoDB Atlas とやり取りする Lambda によってバックアップされる API Gateway の API キー AWS Secrets Manager を含むシークレットを から選択します。ドロップダウンリストにシークレットが表示されない場合は、 AWS Secrets Managerでシークレットを作成します。詳細については、「[Amazon Data Firehose AWS Secrets Manager で を使用して認証する](using-secrets-manager.md)」を参照してください。  
**コンテンツのエンコーディング**  
Amazon Data Firehose は、リクエストを宛先に送信する前に、コンテンツのエンコードを使用してリクエストの本文を圧縮します。[**GZIP**] または [**Disabled (無効)**] をクリックして、リクエストのコンテンツエンコーディングを有効/無効にします。  
**再試行の期間**  
Amazon Data Firehose が、選択したサードパーティープロバイダーへのデータの送信を再試行する期間を指定します。  
データの送信後、Amazon Data Firehose はまず HTTP エンドポイントからの送達確認を待機します。エラーが発生した場合、または確認タイムアウト期間内に確認が到着しない場合、Amazon Data Firehose で再試行期間カウンターが開始されます。再試行期間が終わるまで再試行が続けられます。その後、Amazon Data Firehose はデータ配信が失敗したとみなしてデータを Amazon S3 バケットにバックアップします。  
Amazon Data Firehose がデータを HTTP エンドポイントに送信するたびに (初回か再試行かにかかわらず)、確認応答タイムアウトカウンターが再度開始され、HTTP エンドポイントからの確認応答を待機します。  
再試行期間が切れた場合でも、Amazon Data Firehose は確認応答が到着するか確認応答タイムアウト期間に達するまで確認応答を待機し続けます。確認がタイムアウトすると、Amazon Data Firehose は再試行カウンターの残り時間があるかどうかを判別します。残り時間がある場合は、確認が到着するか再試行時間が切れたと判断されるまで再試行されロジックが繰り返されます。  
Amazon Data Firehose でデータの送信を再試行しない場合は、この値を 0 に設定します。  
**バッファリングのヒント**  
Amazon Data Firehose は着信データをバッファリングしてから、指定された宛先にデータを送信します。送信先の推奨バッファサイズは、サービスプロバイダーによって異なります。  
**Parameters - オプション**  
Amazon Data Firehose では、各 HTTP コールにこれらのキーと値のペアが含まれます。これらのパラメータを使用すると、送信先の識別や整理に役立ちます。

## New Relic の宛先の設定を構成する
<a name="create-destination-new-relic"></a>

このセクションでは、送信先に **New Relic** を使用するためのオプションについて説明します。詳細については、[https://newrelic.com](https://newrelic.com) を参照してください。

****
+ 以下のフィールドに値を入力します。  
 **HTTP エンドポイント URL**   
ドロップダウンリストの次のオプションから HTTP エンドポイント URL を選択します。  
  + **New Relic ログ - 米国**
  + **New Relic メトリクス - 米国**
  + **New Relic メトリクス - EU**  
 **認証**   
API キーを直接入力するか、 からシークレットを取得 AWS Secrets Manager して New Relic にアクセスするかを選択できます。  
  + **API キー** 

    New Relic One アカウント設定から、40 文字の 16 進文字列であるライセンスキーを入力します。Firehose からこのエンドポイントへのデータ配信を有効にするには、この API キーが必要です。
  + **シークレット**

    New Relic の API キー AWS Secrets Manager を含むシークレットを から選択します。ドロップダウンリストにシークレットが表示されない場合は、 AWS Secrets Managerでシークレットを作成します。詳細については、「[Amazon Data Firehose AWS Secrets Manager で を使用して認証する](using-secrets-manager.md)」を参照してください。  
 **コンテンツのエンコーディング**   
Amazon Data Firehose は、リクエストを宛先に送信する前に、コンテンツのエンコードを使用してリクエストの本文を圧縮します。[**GZIP**] または [**Disabled (無効)**] をクリックして、リクエストのコンテンツエンコーディングを有効/無効にします。  
 **再試行の期間**   
Amazon Data Firehose が New Relic HTTP エンドポイントへのデータの送信を再試行する時間を指定します。  
データの送信後、Amazon Data Firehose はまず HTTP エンドポイントからの送達確認を待機します。エラーが発生した場合、または確認タイムアウト期間内に確認が到着しない場合、Amazon Data Firehose で再試行期間カウンターが開始されます。再試行期間が終わるまで再試行が続けられます。その後、Amazon Data Firehose はデータ配信が失敗したとみなしてデータを Amazon S3 バケットにバックアップします。  
Amazon Data Firehose がデータを HTTP エンドポイントに送信するたびに (初回か再試行かにかかわらず)、確認応答タイムアウトカウンターが再度開始され、HTTP エンドポイントからの確認応答を待機します。  
再試行期間が切れた場合でも、Amazon Data Firehose は確認応答が到着するか確認応答タイムアウト期間に達するまで確認応答を待機し続けます。確認がタイムアウトすると、Amazon Data Firehose は再試行カウンターの残り時間があるかどうかを判別します。残り時間がある場合は、確認が到着するか再試行時間が切れたと判断されるまで再試行されロジックが繰り返されます。  
Amazon Data Firehose でデータの送信を再試行しない場合は、この値を 0 に設定します。  
 **Parameters - オプション**   
Amazon Data Firehose では、各 HTTP コールにこれらのキーと値のペアが含まれます。これらのパラメータを使用すると、送信先の識別や整理に役立ちます。  
 **バッファリングのヒント**   
Amazon Data Firehose は着信データをバッファリングしてから、指定された宛先にデータを送信します。送信先の推奨バッファサイズは、サービスプロバイダーによって異なります。

## Snowflake の宛先の設定を構成する
<a name="create-destination-snowflake"></a>

このセクションでは、宛先に Snowflake を使用するためのオプションについて説明します。

**注記**  
Firehose と Snowflake の統合は、米国東部 (バージニア北部）、米国西部 (オレゴン）、欧州 (アイルランド）、米国東部 (オハイオ）、アジアパシフィック (東京）、欧州 (フランクフルト）、アジアパシフィック (シンガポール）、アジアパシフィック (ソウル）、アジアパシフィック (シドニー）、アジアパシフィック (ムンバイ）、欧州 (ロンドン）、南米 (サンパウロ）、カナダ (中部）、欧州 (パリ）、アジアパシフィック (大阪）、欧州 (ストックホルム）、アジアパシフィック (ジャカルタ) で利用できます AWS リージョン。

**接続の設定**

****
+ 以下のフィールドに値を入力します。  
 **Snowflake アカウント URL**   
Snowflake アカウントの URL を指定します。例: `xy12345.us-east-1.aws.snowflakecomputing.com`。アカウント URL を特定する方法については、[Snowflake のドキュメント](https://docs.snowflake.com/en/user-guide/admin-account-identifier#format-2-legacy-account-locator-in-a-region)を参照してください。ポート番号を指定してはなりませんが、プロトコル (https://) はオプションであることに留意してください。  
 **認証**   
ユーザーログイン、プライベートキー、パスフレーズを手動で入力するか、 からシークレットを取得 AWS Secrets Manager して Snowflake にアクセスするかを選択できます。  
  + **ユーザーログイン**

    データのロードに使用する Snowflake ユーザーを指定します。Snowflake テーブルにデータを挿入するためのアクセスがユーザーに付与されていることを確認します。
  + **プライベートキー**

    Snowflake で認証するためのプライベートキーを `PKCS8` 形式で指定します。さらに、プライベートキーの一部として PEM ヘッダーとフッターを含めないでください。キーが複数の行に分割されている場合は、改行を削除します。プライベートキーがどのように表示されるかの例を次に示します。

    ```
    -----BEGIN PRIVATE KEY-----
    KEY_CONTENT
    -----END PRIVATE KEY-----
    ```

    `KEY_CONTENT` のスペースを削除し、それを Firehose に提供します。ヘッダー/フッターや改行文字は必要ありません。
  + **パスフレーズ** 

    暗号化されたプライベートキーを復号するパスフレーズを指定します。プライベートキーが暗号化されていない場合は、このフィールドを空のままにできます。詳細については、「[Using Key Pair Authentication & Key Rotation](https://docs.snowflake.com/en/user-guide/data-load-snowpipe-streaming-configuration#using-key-pair-authentication-key-rotation)」を参照してください。
  + **シークレット**

    Snowflake の認証情報 AWS Secrets Manager を含むシークレットを から選択します。ドロップダウンリストにシークレットが表示されない場合は、 AWS Secrets Managerでシークレットを作成します。詳細については、「[Amazon Data Firehose AWS Secrets Manager で を使用して認証する](using-secrets-manager.md)」を参照してください。  
 **ロールの設定**   
デフォルトの Snowflake ロールを使用 – このオプションが選択されている場合、Firehose は Snowflake にロールを渡しません。デフォルトのロールは、データをロードするために引き受けられます。Snowflake テーブルにデータを挿入するための許可がデフォルトのロールに付与されていることを確認してください。  
カスタム Snowflake ロールを使用 – Snowflake テーブルにデータをロードする際に Firehose が引き受けるデフォルト以外の Snowflake ロールを入力します。  
 **Snowflake 接続**   
オプションは、**[プライベート]** または **[パブリック]** です。  
 **プライベートVPCE ID (オプション)**   
Firehose が Snowflake とプライベートに接続するための VPCE ID。ID の形式は com.amazonaws.vpce.[region].vpce-svc-*[id]* です。詳細については、「[AWS PrivateLink & Snowflake](https://docs.snowflake.com/en/user-guide/admin-security-privatelink)」を参照してください。  
Snowflake クラスターでプライベートリンクが有効になっている場合は、`AwsVpceIds` ベースのネットワークポリシーを使用して Amazon Data Firehose データを許可します。Firehose では、Snowflake アカウントで IP ベースのネットワークポリシーを設定する必要はありません。IP ベースのネットワークポリシーを有効にすると、Firehose の接続が妨げられる可能性があります。IP ベースのポリシーを必要とするエッジケースがある場合は、[サポートチケット](https://support.console.aws.amazon.com/support/home?region=us-east-1#/case/create)を送信して Firehose チームにお問い合わせください。使用できる VPCE ID のリストについては、「[VPC での Snowflake へのアクセス](controlling-access.md#using-iam-snowflake-vpc)」を参照してください。

**データベース設定**
+ Firehose ストリームの宛先として Snowflake を使用するには、次の設定を指定する必要があります。
  + Snowflake データベース - Snowflake のすべてのデータはデータベースに保持されます。
  + Snowflake スキーマ – 各データベースは 1 つ以上のスキーマで構成され、テーブルやビューなどのデータベースオブジェクトの論理グループです。
  + Snowflake テーブル – Snowflake のすべてのデータはデータベーステーブルに保存され、列と行のコレクションとして論理的に構造化されます。

 **Snowflake テーブルのデータロードオプション** 
+ 列名として JSON キーを使用する 
+ VARIANT 列を使用する
  + コンテンツ列名 – テーブル内の列名を指定します。ここでは、未処理のデータをロードする必要があります。
  + メタデータ列名 (オプション) – テーブル内の列名を指定します。ここでは、メタデータ情報をロードする必要があります。このフィールドを有効にすると、ソースタイプに基づいて Snowflake テーブルに次の列が表示されます。

    **Direct PUT をソースとする場合**

    ```
    {
    "firehoseDeliveryStreamName" : "streamname",
    "IngestionTime" : "timestamp"
    }
    ```

    **Kinesis データストリームをソースとする場合**

    ```
    {
    "kinesisStreamName" : "streamname",
    "kinesisShardId" : "Id",
    "kinesisPartitionKey" : "key",
    "kinesisSequenceNumber" : "1234",
    "subsequenceNumber" : "2334",
    "IngestionTime" : "timestamp"
    }
    ```

 **再試行の期間** 

Snowflake サービスの問題を理由として、チャネルを開くこと、または Snowflake への配信のいずれかが失敗した場合に、Firehose が再試行する時間 (0～7,200 秒)。Firehose は、再試行期間が終了するまでエクスポネンシャルバックオフで再試行します。再試行期間を 0 (ゼロ) 秒に設定すると、Firehose は Snowflake の障害発生時に再試行せず、データを Amazon S3 エラーバケットにルーティングします。

 **バッファリングのヒント** 

Amazon Data Firehose は着信データをバッファリングしてから、指定された宛先にデータを送信します。送信先の推奨バッファサイズは、サービスプロバイダーによって異なります。詳細については、「[バッファリングのヒントを設定する](create-configure-backup.md#buffering-hints)」を参照してください。

## Splunk の宛先の設定を構成する
<a name="create-destination-splunk"></a>

このセクションでは、送信先に Splunk を使用するためのオプションについて説明します。

**注記**  
Firehose は、Classic Load Balancer または Application Load Balancer を使用して設定された Splunk クラスターにデータを配信します。

****
+ 以下のフィールドに値を入力します。  
 **Splunk クラスターエンドポイント**   
エンドポイントを確認するには、Splunk ドキュメントの「[Configure Amazon Data Firehose to Send Data to the Splunk Platform](http://docs.splunk.com/Documentation/AddOns/latest/Firehose/ConfigureFirehose)」を参照してください。  
 **Splunk エンドポイントタイプ**   
ほとんどの場合は `Raw endpoint` を選択します。を使用してデータを前処理 AWS Lambda し、イベントタイプ別に異なるインデックスにデータを送信する`Event endpoint`場合は、 を選択します。使用するエンドポイントについては、Splunk ドキュメントの「[Configure Amazon Data Firehose to send data to the Splunk platform](http://docs.splunk.com/Documentation/AddOns/released/Firehose/ConfigureFirehose)」を参照してください。  
 **認証**   
認証トークンを直接入力するか、 からシークレットを取得 AWS Secrets Manager して Splunk にアクセスするかを選択できます。  
  + **認証トークン** 

    Amazon Data Firehose からデータを受信できる Splunk エンドポイントをセットアップするには、Splunk ドキュメントの「[Installation and configuration overview for the Splunk Add-on for Amazon Data Firehose](http://docs.splunk.com/Documentation/AddOns/released/Firehose/Installationoverview)」を参照してください。この Firehose ストリームのエンドポイントを設定するときに Splunk から取得したトークンを保存し、ここで追加します。
  + **シークレット**

    Splunk の認証トークン AWS Secrets Manager を含むシークレットを から選択します。ドロップダウンリストにシークレットが表示されない場合は、 AWS Secrets Managerでシークレットを作成します。詳細については、「[Amazon Data Firehose AWS Secrets Manager で を使用して認証する](using-secrets-manager.md)」を参照してください。  
 **HEC 送達確認のタイムアウト**   
Amazon Data Firehose が Splunk からのインデックス確認応答を待機する時間を指定します。Splunk が確認を送信しないままタイムアウトに達すると、Amazon Data Firehose ではデータ配信失敗とみなされます。その後、Amazon Data Firehose は設定された再試行期間値に従って、再試行するか、データを Amazon S3 バケットにバックアップします。  
 **再試行の期間**   
Amazon Data Firehose が Splunk へのデータ送信を再試行する期間を指定します。  
データの送信後、Amazon Data Firehose はまず Splunk からの送達確認を待機します。エラーが発生した場合、または確認タイムアウト期間内に確認が到着しない場合、Amazon Data Firehose で再試行期間カウンターが開始されます。再試行期間が終わるまで再試行が続けられます。その後、Amazon Data Firehose はデータ配信が失敗したとみなしてデータを Amazon S3 バケットにバックアップします。  
Amazon Data Firehose がデータを Splunk に送信するたびに (初回か再試行かにかかわらず)、確認応答タイムアウトカウンターが再度開始され、Splunk からの確認応答を待機します。  
再試行期間が切れた場合でも、Amazon Data Firehose は確認応答が到着するか確認応答タイムアウト期間に達するまで確認応答を待機し続けます。確認がタイムアウトすると、Amazon Data Firehose は再試行カウンターの残り時間があるかどうかを判別します。残り時間がある場合は、確認が到着するか再試行時間が切れたと判断されるまで再試行されロジックが繰り返されます。  
Amazon Data Firehose でデータの送信を再試行しない場合は、この値を 0 に設定します。  
 **バッファリングのヒント**   
Amazon Data Firehose は着信データをバッファリングしてから、指定された宛先にデータを送信します。宛先に推奨されるバッファリングサイズは、サービスプロバイダーによって異なります。

## Splunk Observability Cloud の宛先の設定を構成する
<a name="create-destination-splunk-cloud"></a>

このセクションでは、送信先に **Splunk Observability Cloud** を使用する方法について説明します。[詳細については、https://docs.splunk.com/observability/en/gdi/get-data-in/connect/aws/aws-apiconfig.html\$1connect-to-aws-using-the-splunk-observability-cloud-api](https://docs.splunk.com/Observability/gdi/get-data-in/connect/aws/aws-apiconfig.html#connect-to-aws-using-the-splunk-observability-cloud-api) を参照してください。

****
+ 以下のフィールドに値を入力します。  
 **Cloud Ingest のエンドポイント URL**   
Splunk Observability Cloud のリアルタイムデータインジェスト URL は、Splunk Observability のコンソールから、[Profile] > [Organizations] > [Profile ] の順にクリックすると見つけることができます。  
 **認証**   
アクセストークンを直接入力するか、 からシークレットを取得 AWS Secrets Manager して Splunk Observability Cloud にアクセスするかを選択できます。  
  + **アクセストークン** 

    Splunk Observability コンソールの **[設定]** の **[アクセストークン]** から、INGEST 認可スコープを持つ Splunk Observability アクセストークンをコピーします。
  + **シークレット**

    Splunk Observability Cloud のアクセストークン AWS Secrets Manager を含むシークレットを から選択します。ドロップダウンリストにシークレットが表示されない場合は、 AWS Secrets Managerでシークレットを作成します。詳細については、「[Amazon Data Firehose AWS Secrets Manager で を使用して認証する](using-secrets-manager.md)」を参照してください。  
 **コンテンツのエンコーディング**   
Amazon Data Firehose は、リクエストを宛先に送信する前に、コンテンツのエンコードを使用してリクエストの本文を圧縮します。[**GZIP**] または [**Disabled (無効)**] をクリックして、リクエストのコンテンツエンコーディングを有効/無効にします。  
 **再試行の期間**   
選択された HTTP エンドポイントへのデータの送信を Amazon Data Firehose が再試行する時間を指定します。  
データの送信後、Amazon Data Firehose はまず HTTP エンドポイントからの送達確認を待機します。エラーが発生した場合、または確認タイムアウト期間内に確認が到着しない場合、Amazon Data Firehose で再試行期間カウンターが開始されます。再試行期間が終わるまで再試行が続けられます。その後、Amazon Data Firehose はデータ配信が失敗したとみなしてデータを Amazon S3 バケットにバックアップします。  
Amazon Data Firehose がデータを HTTP エンドポイントに送信するたびに (初回か再試行かにかかわらず)、確認応答タイムアウトカウンターが再度開始され、HTTP エンドポイントからの確認応答を待機します。  
再試行期間が切れた場合でも、Amazon Data Firehose は確認応答が到着するか確認応答タイムアウト期間に達するまで確認応答を待機し続けます。確認がタイムアウトすると、Amazon Data Firehose は再試行カウンターの残り時間があるかどうかを判別します。残り時間がある場合は、確認が到着するか再試行時間が切れたと判断されるまで再試行されロジックが繰り返されます。  
Amazon Data Firehose でデータの送信を再試行しない場合は、この値を 0 に設定します。  
 **Parameters - オプション**   
Amazon Data Firehose では、各 HTTP コールにこれらのキーと値のペアが含まれます。これらのパラメータを使用すると、送信先の識別や整理に役立ちます。  
 **バッファリングのヒント**   
Amazon Data Firehose は着信データをバッファリングしてから、指定された宛先にデータを送信します。送信先の推奨バッファサイズは、サービスプロバイダーによって異なります。

## Sumo Logic の宛先の設定を構成する
<a name="create-destination-sumo-logic"></a>

このセクションでは、送信先に **Sumo Logic** を使用するためのオプションについて説明します。詳細については、「[https://www.sumologic.com](https://www.sumologic.com)」を参照してください。

****
+ 以下のフィールドに値を入力します。  
 **HTTP エンドポイント URL**   
HTTP エンドポイントの URL を次の形式で指定します: `https://deployment name.sumologic.net/receiver/v1/kinesis/dataType/access token`。URL は HTTPS URL であることが必要です。  
 **コンテンツのエンコーディング**   
Amazon Data Firehose は、リクエストを宛先に送信する前に、コンテンツのエンコードを使用してリクエストの本文を圧縮します。[**GZIP**] または [**Disabled (無効)**] をクリックして、リクエストのコンテンツエンコーディングを有効/無効にします。  
 **再試行の期間**   
Amazon Data Firehose が Sumo Logic へのデータ送信を再試行する期間を指定します。  
データの送信後、Amazon Data Firehose はまず HTTP エンドポイントからの送達確認を待機します。エラーが発生した場合、または確認タイムアウト期間内に確認が到着しない場合、Amazon Data Firehose で再試行期間カウンターが開始されます。再試行期間が終わるまで再試行が続けられます。その後、Amazon Data Firehose はデータ配信が失敗したとみなしてデータを Amazon S3 バケットにバックアップします。  
Amazon Data Firehose がデータを HTTP エンドポイントに送信するたびに (初回か再試行かにかかわらず)、確認応答タイムアウトカウンターが再度開始され、HTTP エンドポイントからの確認応答を待機します。  
再試行期間が切れた場合でも、Amazon Data Firehose は確認応答が到着するか確認応答タイムアウト期間に達するまで確認応答を待機し続けます。確認がタイムアウトすると、Amazon Data Firehose は再試行カウンターの残り時間があるかどうかを判別します。残り時間がある場合は、確認が到着するか再試行時間が切れたと判断されるまで再試行されロジックが繰り返されます。  
Amazon Data Firehose でデータの送信を再試行しない場合は、この値を 0 に設定します。  
 **Parameters - オプション**   
Amazon Data Firehose では、各 HTTP コールにこれらのキーと値のペアが含まれます。これらのパラメータを使用すると、送信先の識別や整理に役立ちます。  
 **バッファリングのヒント**   
Amazon Data Firehose は着信データをバッファリングしてから、指定された宛先にデータを送信します。Elastic を送信先とする場合の推奨のバッファサイズは、サービスプロバイダーに応じて異なります。

## Elastic の宛先の設定を構成する
<a name="create-destination-elastic"></a>

このセクションでは、送信先に **Elastic** を使用する方法について説明します。

****
+ 以下のフィールドに値を入力します。  
 **Elastic のエンドポイント URL**   
HTTP エンドポイントの URL を次の形式で指定します: `https://<cluster-id>.es.<region>.aws.elastic-cloud.com`。URL は HTTPS URL であることが必要です。  
 **認証**   
API キーを直接入力するか、 からシークレットを取得 AWS Secrets Manager して Elastic にアクセスするかを選択できます。  
  + **API キー** 

    Elastic に連絡し、Firehose からこのサービスへのデータ配信を有効にするために必要な API キーを取得します。
  + **シークレット**

    Elastic の API キー AWS Secrets Manager を含むシークレットを から選択します。ドロップダウンリストにシークレットが表示されない場合は、 AWS Secrets Managerでシークレットを作成します。詳細については、「[Amazon Data Firehose AWS Secrets Manager で を使用して認証する](using-secrets-manager.md)」を参照してください。  
 **コンテンツのエンコーディング**   
Amazon Data Firehose は、リクエストを宛先に送信する前に、コンテンツのエンコードを使用してリクエストの本文を圧縮します。**[GZIP]** (デフォルトによる選択) または **[無効]** を選択し、リクエストのコンテンツエンコーディングを有効/無効にします。  
 **再試行の期間**   
Amazon Data Firehose が Elastic へのデータの送信を再試行する期間を指定します。  
データの送信後、Amazon Data Firehose はまず HTTP エンドポイントからの送達確認を待機します。エラーが発生した場合、または確認タイムアウト期間内に確認が到着しない場合、Amazon Data Firehose で再試行期間カウンターが開始されます。再試行期間が終わるまで再試行が続けられます。その後、Amazon Data Firehose はデータ配信が失敗したとみなしてデータを Amazon S3 バケットにバックアップします。  
Amazon Data Firehose がデータを HTTP エンドポイントに送信するたびに (初回か再試行かにかかわらず)、確認応答タイムアウトカウンターが再度開始され、HTTP エンドポイントからの確認応答を待機します。  
再試行期間が切れた場合でも、Amazon Data Firehose は確認応答が到着するか確認応答タイムアウト期間に達するまで確認応答を待機し続けます。確認がタイムアウトすると、Amazon Data Firehose は再試行カウンターの残り時間があるかどうかを判別します。残り時間がある場合は、確認が到着するか再試行時間が切れたと判断されるまで再試行されロジックが繰り返されます。  
Amazon Data Firehose でデータの送信を再試行しない場合は、この値を 0 に設定します。  
 **Parameters - オプション**   
Amazon Data Firehose では、各 HTTP コールにこれらのキーと値のペアが含まれます。これらのパラメータを使用すると、送信先の識別や整理に役立ちます。  
 **バッファリングのヒント**   
Amazon Data Firehose は着信データをバッファリングしてから、指定された宛先にデータを送信します。Elastic の送信先の推奨バッファサイズは 1 MiB です。