Configuración de los ajustes de destino
En esta sección, se describen los ajustes que debe configurar para su flujo de Firehose en función del destino que seleccione.
Temas
Configuración de los ajustes de destino de las tablas de Apache Iceberg
Configuración de los ajustes de destino de OpenSearch Service
Configuración de los ajustes de destino de OpenSearch sin servidor
Configuración de los ajustes de destino del punto de conexión HTTP
Configuración de los ajustes de destino de Splunk Observability Cloud
Configuración de los ajustes de destino de Amazon S3
Debe especificar la siguiente configuración para poder utilizar Amazon S3 como destino del flujo de Firehose.
-
Escriba valores en los siguientes campos:
- Bucket de S3
-
Seleccione el bucket de S3 de su propiedad adonde se deben entregar los datos de streaming. Puede crear un bucket de S3 nuevo o elegir uno disponible.
- Delimitador de nueva línea
-
Puede configurar el flujo de Firehose para agregar un delimitador de nueva línea entre los registros de los objetos que se entregan en Amazon S3. Para ello, elija Habilitado. Para no agregar un delimitador de nueva línea entre los registros de los objetos que se entregan en Amazon S3, seleccione Deshabilitado. Si planea usar Athena para consultar objetos de S3 con registros agregados, active esta opción.
- Particionamiento dinámico
-
Seleccione Habilitado para habilitar y configurar el particionamiento dinámico.
- Desagregación de varios registros
-
Se trata del proceso de analizar los registros del flujo de Firehose y separarlos en función de un JSON válido o del delimitador de nueva línea especificado.
Si agrega varios eventos o registros en una sola llamada a la API PutRecord y PutRecordBatch, aún puede habilitar y configurar el particionamiento dinámico. Con los datos agregados, al habilitar el particionamiento dinámico, Amazon Data Firehose analiza los registros y busca varios objetos JSON válidos en cada llamada a la API. Cuando el flujo de Firehose se configura con Kinesis Data Streams como origen, también puede utilizar la agregación integrada en Kinesis Producer Library (KPL). La funcionalidad de partición de datos se ejecuta después de desagregar los datos. Por lo tanto, cada registro de cada llamada a la API se puede entregar en distintos prefijos de Amazon S3. También puede utilizar la integración de la función de Lambda para realizar cualquier otra desagregación o cualquier otra transformación antes de la funcionalidad de particionamiento de datos.
importante
Si sus datos están agregados, el particionamiento dinámico solo se puede aplicar una vez completada la desagregación de los datos. Por lo tanto, si habilita el particionamiento dinámico en sus datos agregados, debe seleccionar Habilitado para habilitar la desagregación de varios registros.
El flujo de Firehose completa los siguientes pasos de procesamiento en el siguiente orden: desagregación de KPL (protobuf), desagregación de JSON o delimitador, procesamiento de Lambda, particionamiento de datos, conversión de formato de datos y entrega en Amazon S3.
- Tipo de desagregación de varios registros
-
Si ha habilitado la desagregación de varios registros, debe especificar el método para que Firehose desagregue los datos. Utilice el menú desplegable para elegir JSON o Delimitado.
- Análisis en línea
-
Este es uno de los mecanismos admitidos para particionar dinámicamente los datos vinculados a Amazon S3. A fin de usar el análisis en línea para el particionamiento dinámico de sus datos, debe especificar los parámetros de registro de datos que se utilizarán como claves de particionamiento y proporcionar un valor para cada clave de particionamiento especificada. Seleccione Habilitado para habilitar y configurar el análisis en línea.
importante
Si especificó una función de AWS Lambda en los pasos anteriores para transformar los registros de origen, puede utilizarla para particionar dinámicamente los datos vinculados a S3 y seguir creando las claves de partición con el análisis en línea. Con el particionamiento dinámico, puede utilizar el análisis en línea o la función de AWS Lambda para crear las claves de particionamiento. También puede usar el análisis en línea y la función de AWS Lambda al mismo tiempo para crear las claves de particionamiento.
- Claves de particionamiento dinámico
-
Puede usar los campos Clave y Valor para especificar los parámetros de registro de datos que se utilizarán como claves de particionamiento dinámico y las consultas jq para generar valores de claves de particionamiento dinámico. Firehose solo admite jq 1.6. Puede especificar hasta 50 claves de particionamiento dinámico. Debe ingresar expresiones jq válidas para los valores de las claves de particionamiento dinámico a fin de configurar correctamente el particionamiento dinámico para su flujo de Firehose.
- Prefijo de bucket de S
-
Al habilitar y configurar el particionamiento dinámico, debe especificar los prefijos de buckets de S3 en los que Amazon Data Firehose entregará los datos particionados.
Para que el particionamiento dinámico se configure correctamente, el número de prefijos de bucket de S3 debe ser idéntico al número de claves de particionamiento especificadas.
Puede particionar los datos de origen con el análisis en línea o con la función de AWS Lambda especificada. Si especificó una función de AWS Lambda para crear claves de particionamiento para los datos de origen, debe escribir manualmente los valores de prefijos de bucket de S3 con el siguiente formato: “partitionKeyFromLambda:keyID”. Si utiliza el análisis en línea para especificar las claves de particionamiento de los datos de origen, puede escribir manualmente los valores de versión preliminar de bucket de S3 con este formato “partitionKeyFromQuery:keyID” o puede elegir el botón Aplicar claves de particionamiento dinámico para usar sus pares de clave-valor de particionamiento dinámico para generar automáticamente los prefijos de bucket de S3. Al particionar sus datos con el análisis en línea o AWS Lambda, también puede usar las siguientes formas de expresión en el prefijo de bucket de S3: !{namespace:value}, donde el espacio de nombres puede ser partitionKeyFromQuery o partitionKeyFromLambda.
- Zona horaria del prefijo del resultado del bucket S3 y el error de S3
Elija la zona horaria que desee usar para la fecha y la hora en los prefijos personalizados de los objetos de Amazon S3. De forma predeterminada, Firehose añade un prefijo de hora en UTC. Puede cambiar la zona horaria utilizada en los prefijos de S3 si desea utilizar una zona horaria diferente.
- Sugerencias de almacenamiento en búfer
-
Firehose almacena en búfer los datos de entrada antes de entregarlos en el destino especificado. El tamaño del búfer recomendado para el destino varía de un proveedor de servicios a otro.
- Compresión en S
-
Elija la compresión de datos GZIP, Snappy, Zip o Snappy compatible con Hadoop, o sin compresión de datos. Las compresiones Snappy, Zip y Snappy compatible con Hadoop no están disponibles para los flujos de Firehose con Amazon Redshift como destino.
- Formato de extensión de archivo de S3 (opcional)
Especifique un formato de extensión de archivo para los objetos entregados al bucket de destino de Amazon S3. Si habilita esta característica, la extensión de archivo especificada anulará las extensiones de archivo predeterminadas incorporadas por las funciones de conversión de formato de datos o de compresión en S3, como .parquet o .gz. Asegúrese de haber configurado la extensión de archivo correcta cuando utilice esta característica con la conversión de formato de datos o la compresión en S3. La extensión del archivo debe empezar con un punto (.) y puede contener los caracteres permitidos: 0-9a-z!-_.*‘(). La extensión del archivo no puede superar los 128 caracteres.
- Cifrado de S
Firehose admite el cifrado del servidor de Amazon S3 con AWS Key Management Service (SSE-KMS) para cifrar los datos entregados en Amazon S3. Puede optar por utilizar el tipo de cifrado predeterminado especificado en el bucket de S3 de destino o cifrarlo con una de las claves de la lista de sus claves de AWS KMS. Si cifra los datos con claves de AWS KMS, puede usar la clave administrada por AWS predeterminada (aws/s3) o una clave administrada por el cliente. Para obtener más información, consulte Protección de los datos mediante el cifrado del servidor con claves administradas por AWS KMS (SSE-KMS).
Configuración de los ajustes de destino de las tablas de Apache Iceberg
Firehose admite las tablas de Apache Iceberg como destino en todas las Regiones de AWS, salvo en las regiones de China, AWS GovCloud (US) Regions y en Asia-Pacífico (Malasia).
Para obtener más información sobre las tablas de Apache Iceberg como destino, consulte Entrega de datos a tablas de Apache Iceberg con Amazon Data Firehose.
Configuración de las opciones de destino de Amazon Redshift
En esta sección, se describe la configuración para usar Amazon Redshift como destino del flujo de Firehose.
Elija uno de los siguientes procedimientos en función de si tiene un clúster aprovisionado de Amazon Redshift o un grupo de trabajo de Amazon Redshift sin servidor.
-
Configuración de las opciones de destino del grupo de trabajo de Amazon Redshift sin servidor
nota
Firehose no puede escribir en los clústeres de Amazon Redshift que utilizan el enrutamiento de VPC mejorado.
Clúster aprovisionado de Amazon Redshift
En esta sección, se describe la configuración para usar el clúster aprovisionado de Amazon Redshift como destino del flujo de Firehose.
-
Escriba valores en los siguientes campos:
- Clúster
-
Clúster de Amazon Redshift en el que se copian los datos del bucket de S3. Configure el clúster de Amazon Redshift para que sea accesible al público y desbloquee direcciones IP de Amazon Data Firehose. Para obtener más información, consulte Concesión a Firehose de acceso a un destino de Amazon Redshift .
- Autenticación
-
Puede elegir entre introducir el nombre de usuario y la contraseña directamente o recuperar el secreto de AWS Secrets Manager para acceder al clúster de Amazon Redshift.
-
Nombre del usuario
Especifique un usuario de Amazon Redshift con permisos para acceder al clúster de Amazon Redshift. Este usuario debe tener el permiso
INSERTde Amazon Redshift para copiar datos del bucket de S3 en el clúster de Amazon Redshift. Contraseña
Especifique la contraseña del usuario con permisos para obtener acceso al clúster.
-
Secret
Seleccione un secreto de AWS Secrets Manager que contenga las credenciales del clúster de Amazon Redshift. Si no ve su secreto en la lista desplegable, cree uno en AWS Secrets Manager para sus credenciales de Amazon Redshift. Para obtener más información, consulte Autenticación con AWS Secrets Manager en Amazon Data Firehose.
-
- Base de datos
-
Base de datos de Amazon Redshift en la que se copian los datos.
- Tabla
-
Tabla de Amazon Redshift en la que se copian los datos.
- Columnas
-
Las columnas específicas de la tabla donde se copian los datos (opcional). Utilice esta opción si la cantidad de columnas definida en los objetos de Amazon S3 es menor que la cantidad de columnas en la tabla Amazon Redshift.
- Destino de S3 intermedio
-
Firehose primero entrega los datos en el bucket de S3 y, a continuación, emite un comando COPY de Amazon Redshift para cargar los datos en el clúster de Amazon Redshift. Especifique el bucket de S3 de su propiedad adonde se deben entregar los datos de streaming. Cree un nuevo bucket de S3 o elija uno que le pertenezca.
Firehose no elimina los datos de su bucket de S3 después de cargarlos en el clúster de Amazon Redshift. Puede administrar los datos en el bucket de S3 utilizando una configuración del ciclo de vida. Para obtener más información, consulte Administración del ciclo de vida de los objetos en la Guía del usuario de Amazon Simple Storage Service.
- Prefijo de S3 intermedio
-
(Opcional) Para utilizar el prefijo predeterminado de los objetos de Amazon S3, deje esta opción en blanco. Firehose utiliza automáticamente un prefijo en formato de tiempo “
YYYY/MM/dd/HH” UTC para objetos de Amazon S3 entregados. Puede añadir más elementos al comienzo de este prefijo. Para obtener más información, consulte Configuración del formato de nombres de objetos de Amazon S3. - Opciones de COPY
-
Parámetros que puede especificar en el comando COPY de Amazon Redshift. Podrían ser necesarios para la configuración. Por ejemplo, “
GZIP” es necesario si la compresión de datos de Amazon S3 está habilitada. “REGION” es necesario si el bucket de S3 no está en la misma región de AWS que el clúster de Amazon Redshift. Para más información, consulte COPY en la Guía para desarrolladores de bases de datos de Amazon Redshift. - COPY command
-
Comando COPY de Amazon Redshift. Para más información, consulte COPY en la Guía para desarrolladores de bases de datos de Amazon Redshift.
- Retry duration
-
Tiempo (entre 0 y 7200 segundos) para que Firehose vuelva a intentarlo si falla el comando COPY sobre los datos en el clúster de Amazon Redshift. Firehose hace reintentos cada 5 minutos hasta que finaliza el tiempo de reintento. Si establece el tiempo de reintento en 0 (cero) segundos, Firehose no lo reintenta tras producirse un error en el comando COPY.
- Sugerencias de almacenamiento en búfer
-
Firehose almacena en búfer los datos de entrada antes de entregarlos en el destino especificado. El tamaño del búfer recomendado para el destino varía de un proveedor de servicios a otro.
- Compresión en S
-
Elija la compresión de datos GZIP, Snappy, Zip o Snappy compatible con Hadoop, o sin compresión de datos. Las compresiones Snappy, Zip y Snappy compatible con Hadoop no están disponibles para los flujos de Firehose con Amazon Redshift como destino.
- Formato de extensión de archivo de S3 (opcional)
Formato de extensión de archivo S3 (opcional): especifique un formato de extensión de archivo para los objetos entregados al bucket de destino de Amazon S3. Si habilita esta característica, la extensión de archivo especificada anulará las extensiones de archivo predeterminadas incorporadas por las funciones de conversión de formato de datos o de compresión en S3, como .parquet o .gz. Asegúrese de haber configurado la extensión de archivo correcta cuando utilice esta característica con la conversión de formato de datos o la compresión en S3. La extensión del archivo debe empezar con un punto (.) y puede contener los caracteres permitidos: 0-9a-z!-_.*‘(). La extensión del archivo no puede superar los 128 caracteres.
- Cifrado de S
Firehose admite el cifrado del servidor de Amazon S3 con AWS Key Management Service (SSE-KMS) para cifrar los datos entregados en Amazon S3. Puede optar por utilizar el tipo de cifrado predeterminado especificado en el bucket de S3 de destino o cifrarlo con una de las claves de la lista de sus claves de AWS KMS. Si cifra los datos con claves de AWS KMS, puede usar la clave administrada por AWS predeterminada (aws/s3) o una clave administrada por el cliente. Para obtener más información, consulte Protección de los datos mediante el cifrado del servidor con claves administradas por AWS KMS (SSE-KMS).
Configuración de las opciones de destino del grupo de trabajo de Amazon Redshift sin servidor
En esta sección, se describe la configuración para usar el grupo de trabajo de Amazon Redshift sin servidor como destino del flujo de Firehose.
-
Escriba valores en los siguientes campos:
- Nombre del grupo de trabajo
-
El grupo de trabajo de Amazon Redshift sin servidor en el que se copian los datos del bucket de S3. Configure el grupo de trabajo de Amazon Redshift sin servidor para que sea accesible al público y desbloquee las direcciones IP de Firehose. Para obtener más información, consulte la sección Conectarse a una instancia de Amazon Redshift sin servidor accesible públicamente en Conexión a Amazon Redshift sin servidor y también Concesión a Firehose de acceso a un destino de Amazon Redshift .
- Autenticación
-
Puede elegir entre introducir el nombre de usuario y la contraseña directamente o recuperar el secreto de AWS Secrets Manager para acceder al grupo de trabajo de Amazon Redshift sin servidor.
-
Nombre del usuario
Especifique el usuario de Amazon Redshift con permisos para acceder al grupo de trabajo de Amazon Redshift sin servidor. Este usuario debe tener el permiso
INSERTde Amazon Redshift para copiar datos del bucket de S3 en el grupo de trabajo de Amazon Redshift sin servidor. Contraseña
Especifique la contraseña del usuario que tiene permisos para acceder al grupo de trabajo de Amazon Redshift sin servidor.
-
Secret
Seleccione un secreto de AWS Secrets Manager que contenga las credenciales del grupo de trabajo de Amazon Redshift sin servidor. Si no ve su secreto en la lista desplegable, cree uno en AWS Secrets Manager para sus credenciales de Amazon Redshift. Para obtener más información, consulte Autenticación con AWS Secrets Manager en Amazon Data Firehose.
-
- Base de datos
-
Base de datos de Amazon Redshift en la que se copian los datos.
- Tabla
-
Tabla de Amazon Redshift en la que se copian los datos.
- Columnas
-
Las columnas específicas de la tabla donde se copian los datos (opcional). Utilice esta opción si la cantidad de columnas definida en los objetos de Amazon S3 es menor que la cantidad de columnas en la tabla Amazon Redshift.
- Destino de S3 intermedio
-
Amazon Data Firehose primero entrega los datos en el bucket de S3 y, a continuación, emite un comando COPY de Amazon Redshift para cargar los datos en el grupo de trabajo de Amazon Redshift sin servidor. Especifique el bucket de S3 de su propiedad adonde se deben entregar los datos de streaming. Cree un nuevo bucket de S3 o elija uno que le pertenezca.
Firehose no elimina los datos de su bucket de S3 después de cargarlos en el grupo de trabajo de Amazon Redshift sin servidor. Puede administrar los datos en el bucket de S3 utilizando una configuración del ciclo de vida. Para obtener más información, consulte Administración del ciclo de vida de los objetos en la Guía del usuario de Amazon Simple Storage Service.
- Prefijo de S3 intermedio
-
(Opcional) Para utilizar el prefijo predeterminado de los objetos de Amazon S3, deje esta opción en blanco. Firehose utiliza automáticamente un prefijo en formato de tiempo “
YYYY/MM/dd/HH” UTC para objetos de Amazon S3 entregados. Puede añadir más elementos al comienzo de este prefijo. Para obtener más información, consulte Configuración del formato de nombres de objetos de Amazon S3. - Opciones de COPY
-
Parámetros que puede especificar en el comando COPY de Amazon Redshift. Podrían ser necesarios para la configuración. Por ejemplo, “
GZIP” es necesario si la compresión de datos de Amazon S3 está habilitada. “REGION” es necesario si el bucket de S3 no está en la misma región de AWS que el grupo de trabajo de Amazon Redshift sin servidor. Para más información, consulte COPY en la Guía para desarrolladores de bases de datos de Amazon Redshift. - COPY command
-
Comando COPY de Amazon Redshift. Para más información, consulte COPY en la Guía para desarrolladores de bases de datos de Amazon Redshift.
- Retry duration
-
Tiempo (entre 0 y 7200 segundos) para que Firehose vuelva a intentarlo si falla el comando COPY sobre los datos en el grupo de trabajo de Amazon Redshift sin servidor. Firehose hace reintentos cada 5 minutos hasta que finaliza el tiempo de reintento. Si establece el tiempo de reintento en 0 (cero) segundos, Firehose no lo reintenta tras producirse un error en el comando COPY.
- Sugerencias de almacenamiento en búfer
-
Firehose almacena en búfer los datos de entrada antes de entregarlos en el destino especificado. El tamaño del búfer recomendado para el destino varía de un proveedor de servicios a otro.
- Compresión en S
-
Elija la compresión de datos GZIP, Snappy, Zip o Snappy compatible con Hadoop, o sin compresión de datos. Las compresiones Snappy, Zip y Snappy compatible con Hadoop no están disponibles para los flujos de Firehose con Amazon Redshift como destino.
- Formato de extensión de archivo de S3 (opcional)
Formato de extensión de archivo S3 (opcional): especifique un formato de extensión de archivo para los objetos entregados al bucket de destino de Amazon S3. Si habilita esta característica, la extensión de archivo especificada anulará las extensiones de archivo predeterminadas incorporadas por las funciones de conversión de formato de datos o de compresión en S3, como .parquet o .gz. Asegúrese de haber configurado la extensión de archivo correcta cuando utilice esta característica con la conversión de formato de datos o la compresión en S3. La extensión del archivo debe empezar con un punto (.) y puede contener los caracteres permitidos: 0-9a-z!-_.*‘(). La extensión del archivo no puede superar los 128 caracteres.
- Cifrado de S
Firehose admite el cifrado del servidor de Amazon S3 con AWS Key Management Service (SSE-KMS) para cifrar los datos entregados en Amazon S3. Puede optar por utilizar el tipo de cifrado predeterminado especificado en el bucket de S3 de destino o cifrarlo con una de las claves de la lista de sus claves de AWS KMS. Si cifra los datos con claves de AWS KMS, puede usar la clave administrada por AWS predeterminada (aws/s3) o una clave administrada por el cliente. Para obtener más información, consulte Protección de los datos mediante el cifrado del servidor con claves administradas por AWS KMS (SSE-KMS).
Configuración de los ajustes de destino de OpenSearch Service
Firehose admite las versiones de Elasticsearch 1.5, 2.3, 5.1, 5.3, 5.5, 5.6, así como todas las versiones 6.*, 7.* y 8.*. Firehose es compatible con Amazon OpenSearch Service 2.x, hasta la versión 2.11.
En esta sección se describen las opciones de uso de OpenSearch Service como destino.
-
Escriba valores en los siguientes campos:
- Dominio de OpenSearch Service
-
Dominio de OpenSearch Service en el que se entregan los datos.
- Índice
-
Nombre del índice de OpenSearch Service que se utilizará al indexar los datos en su clúster de OpenSearch Service.
- Index rotation
-
Decida si el índice de OpenSearch Service debe rotarse y con qué frecuencia. Si la rotación de índices está habilitada, Amazon Data Firehose agrega la marca de tiempo correspondiente al nombre del índice especificado y lo rota. Para obtener más información, consulte Configuración de la rotación de indexación para OpenSearch Service.
- Tipo
-
Tipo de índice de OpenSearch Service que se utilizará al indexar los datos en su clúster de OpenSearch Service. En Elasticsearch 7.x y OpenSearch 1.x, solo puede haber un tipo por índice. Si intenta especificar un tipo nuevo para un índice existente que ya tiene otro tipo, Firehose devuelve un error durante el tiempo de ejecución.
Para Elasticsearch 7.x, deje este campo vacío.
- Retry duration
-
Tiempo para que Firehose vuelva a intentarlo si falla una solicitud de índice a OpenSearch Service. Como duración del reintento, se puede establecer cualquier valor entre 0 y 7200 segundos. El valor de predeterminado para la duración de reintento es de 300 segundos. Firehose reintentará varias veces con una retirada exponencial hasta que se agote el tiempo de reintento.
Una vez transcurrido el tiempo de reintento, Firehose envía los datos a la cola de mensajes fallidos (DLQ), un bucket de errores de S3 configurado. Los datos que se envían a la DLQ deben volver a enviarse desde el bucket de errores de S3 configurado hasta el destino de OpenSearch.
Si desea impedir que el flujo de Firehose entregue datos a la DLQ debido a un tiempo de inactividad o al mantenimiento de los clústeres de OpenSearch, puede configurar la duración del reintento en un valor superior en segundos. Para aumentar el valor de la duración del reintento por encima de los 7200 segundos, comuníquese con el servicio de asistencia de AWS.
- Tipo de DocumentID
-
Indica el método para configurar el ID de documento. Los métodos admitidos son el ID de documento generado por Firehose y el ID de documento generado por OpenSearch Service. El ID de documento generado por Firehose es la opción predeterminada cuando el valor del ID de documento no está establecido. La opción recomendada es el ID de documento generado por OpenSearch Service, ya que admite operaciones de escritura intensivas, como el análisis y la observabilidad de los registros, por lo que consume menos recursos de CPU en el dominio de OpenSearch Service y, por lo tanto, mejora el rendimiento.
- Destination VPC connectivity (Conectividad de VPC de destino
-
Si su dominio de OpenSearch Service está en una VPC privada, utilice esta sección para especificar esa VPC. Especifique también las subredes y subgrupos que desea que Amazon Data Firehose utilice al enviar datos a su dominio de OpenSearch Service. Puede utilizar los mismos grupos de seguridad que utiliza el dominio de OpenSearch Service. Si especifica distintos grupos de seguridad, asegúrese de que permiten el tráfico HTTPS de salida al grupo de seguridad del dominio de OpenSearch Service. Asegúrese también de que el grupo de seguridad del dominio de OpenSearch Service permita el tráfico HTTPS desde los grupos de seguridad especificados al configurar el flujo de Firehose. Si utiliza el mismo grupo de seguridad tanto para el flujo de Firehose como para el dominio de OpenSearch Service, asegúrese de que la regla de entrada del grupo de seguridad permite el tráfico HTTPS. Para obtener más información acerca de las reglas de los grupos de seguridad, consulte Reglas del grupo de seguridad en la documentación de Amazon VPC.
importante
Cuando especifique subredes para entregar datos al destino en una VPC privada, asegúrese de tener una cantidad suficiente de direcciones IP libres en las subredes elegidas. Si no hay una dirección IP libre disponible en una subred específica, Firehose no puede crear ni añadir ENI para la entrega de datos en la VPC privada, y la entrega se degradará o fallará.
- Sugerencias de almacenamiento en búfer
-
Amazon Data Firehose almacena en búfer los datos de entrada antes de entregarlos en el destino especificado. El tamaño del búfer recomendado para el destino varía de un proveedor de servicios a otro.
Configuración de los ajustes de destino de OpenSearch sin servidor
En esta sección se describen las opciones de uso de OpenSearch sin servidor como destino.
-
Escriba valores en los siguientes campos:
- Colección de OpenSearch sin servidor
-
Punto de conexión de un grupo de índices de OpenSearch sin servidor en el que se entregan sus datos.
- Índice
-
Nombre del índice de OpenSearch sin servidor que se utilizará al indexar los datos en su colección de OpenSearch sin servidor.
- Destination VPC connectivity (Conectividad de VPC de destino
-
Si su colección de OpenSearch sin servidor está en una VPC privada, utilice esta sección para especificar esa VPC. Especifique también las subredes y subgrupos que desea que Amazon Data Firehose utilice al enviar datos a su colección de OpenSearch sin servidor.
importante
Cuando especifique subredes para entregar datos al destino en una VPC privada, asegúrese de tener una cantidad suficiente de direcciones IP libres en las subredes elegidas. Si no hay una dirección IP libre disponible en una subred específica, Firehose no puede crear ni añadir ENI para la entrega de datos en la VPC privada, y la entrega se degradará o fallará.
- Retry duration
-
Tiempo para que Firehose vuelva a intentarlo si falla una solicitud de índice a OpenSearch sin servidor. Como duración del reintento, se puede establecer cualquier valor entre 0 y 7200 segundos. El valor de predeterminado para la duración de reintento es de 300 segundos. Firehose reintentará varias veces con una retirada exponencial hasta que se agote el tiempo de reintento.
Una vez transcurrido el tiempo de reintento, Firehose envía los datos a la cola de mensajes fallidos (DLQ), un bucket de errores de S3 configurado. Los datos que se envían a la DLQ deben volver a enviarse desde el bucket de errores de S3 configurado hasta el destino de OpenSearch sin servidor.
Si desea impedir que el flujo de Firehose entregue datos a la DLQ debido a un tiempo de inactividad o al mantenimiento de los clústeres de OpenSearch sin servidor, puede configurar la duración del reintento en un valor superior en segundos. Para aumentar el valor de la duración del reintento por encima de los 7200 segundos, comuníquese con el servicio de asistencia de AWS.
- Sugerencias de almacenamiento en búfer
-
Amazon Data Firehose almacena en búfer los datos de entrada antes de entregarlos en el destino especificado. El tamaño del búfer recomendado para el destino varía de un proveedor de servicios a otro.
Configuración de los ajustes de destino del punto de conexión HTTP
En esta sección se describen las opciones de uso de un punto de conexión HTTP como destino.
importante
Si elige un punto de conexión HTTP como destino, revise y siga las instrucciones que se ofrecen en Comprender las especificaciones de solicitudes y respuestas de entrega de puntos de conexión HTTP.
-
Proporcione valores para los siguientes campos:
- Nombre del punto de conexión HTTP: opcional
-
Especifique un nombre fácil de recordar para el punto de conexión HTTP. Por ejemplo,
My HTTP Endpoint Destination. - URL del punto de conexión HTTP
-
Especifique la URL del punto de conexión HTTP en el siguiente formato:
https://xyz.httpendpoint.com. La URL debe ser una URL HTTPS. - Autenticación
-
Puede elegir entre introducir la clave de acceso directamente o recuperar el secreto de AWS Secrets Manager para acceder al punto de conexión HTTP.
(Opcional) Clave de acceso
Póngase en contacto con el propietario del punto de conexión para obtener la clave de acceso a fin de permitir la entrega de datos en su punto de conexión desde Firehose.
-
Secret
Seleccione un secreto de AWS Secrets Manager que contenga la clave de acceso del punto de conexión HTTP. Si no ve su secreto en la lista desplegable, cree uno en AWS Secrets Manager para la clave de acceso. Para obtener más información, consulte Autenticación con AWS Secrets Manager en Amazon Data Firehose.
- Codificación de contenidos
-
Amazon Data Firehose utiliza la codificación de contenidos para comprimir el cuerpo de una solicitud antes de enviarla al destino. Seleccione GZIP o Deshabilitada para habilitar o deshabilitar la codificación de contenidos de su solicitud.
- Retry duration
-
Especifique durante cuánto tiempo Amazon Data Firehose reintenta el envío de datos al punto de conexión HTTP seleccionado.
Tras enviar los datos, Amazon Data Firehose espera primero una confirmación del punto de conexión HTTP. Si se produce un error o la confirmación no llega dentro del periodo de tiempo de espera de confirmación, Amazon Data Firehose pone en marcha el contador de tiempo de reintento. Continúa intentándolo hasta que se agota el tiempo de reintento. Después de eso, Amazon Data Firehose considera que se trata de un error de entrega de datos y crea una copia de seguridad de los datos en el bucket de Amazon S3.
Cada vez que Amazon Data Firehose envía datos al punto de conexión HTTP (ya sea en el intento inicial o en un reintento), reinicia el contador de tiempo de espera de confirmación y espera a que llegue una confirmación del punto de conexión HTTP.
Aunque se agote el tiempo de reintento, Amazon Data Firehose sigue esperando la confirmación hasta que la recibe o hasta que finaliza el periodo de tiempo de espera de confirmación. Si se agota el tiempo de espera de confirmación, Amazon Data Firehose determina si queda tiempo en el contador de reintento. Si queda tiempo, vuelve a intentarlo y repite la lógica hasta que recibe una confirmación o determina que el tiempo de reintento se ha agotado.
Si no desea que Amazon Data Firehose vuelva a intentar el envío de datos, establezca este valor en 0.
- Parámetros: opcional
-
Amazon Data Firehose incluye estos pares de clave-valor en cada llamada HTTP. Estos parámetros pueden ayudarlo a identificar y organizar sus destinos.
- Sugerencias de almacenamiento en búfer
-
Amazon Data Firehose almacena en búfer los datos de entrada antes de entregarlos en el destino especificado. El tamaño del búfer recomendado para el destino varía de un proveedor de servicios a otro.
importante
En el caso de los destinos de puntos de conexión HTTP, si ve códigos de respuesta 413 del punto de conexión de destino en Registros de CloudWatch, reduzca el tamaño de la sugerencia de almacenamiento en búfer en el flujo de Firehose e inténtelo de nuevo.
Configuración de los ajustes de destino de Datadog
En esta sección se describen las opciones de uso de Datadog como destino. Para obtener más información sobre Datadog, consulte https://docs.datadoghq.com/integrations/amazon_web_services/
-
Proporcione valores para los siguientes campos.
- URL del punto de conexión HTTP
-
Elija dónde desea enviar los datos desde una de las siguientes opciones del menú desplegable.
-
Registros de Datadog: US1
-
Registros de Datadog: US3
-
Registros de Datadog: US5
-
Registros de Datadog: AP1
-
Registros de Datadog: UE
-
Registros de Datadog: GOV
-
Métricas de Datadog: EE. UU
-
Métricas de Datadog: US5
-
Métricas de Datadog: AP1
-
Métricas de Datadog: UE
-
Configuraciones de Datadog: US1
-
Configuraciones de Datadog: US3
-
Configuraciones de Datadog: US5
-
Configuraciones de Datadog: AP1
-
Configuraciones de Datadog: UE
-
Configuraciones de Datadog: US GOV
-
- Autenticación
-
Puede elegir entre introducir la clave de API directamente o recuperar el secreto de AWS Secrets Manager para acceder a Datadog.
Clave de la API
Póngase en contacto con Datadog para obtener la clave de API necesaria para permitir la entrega de datos en este punto de conexión desde Firehose.
-
Secret
Seleccione un secreto de AWS Secrets Manager que contenga la clave de API de Datadog. Si no ve su secreto en la lista desplegable, cree uno en AWS Secrets Manager. Para obtener más información, consulte Autenticación con AWS Secrets Manager en Amazon Data Firehose.
- Codificación de contenidos
-
Amazon Data Firehose utiliza la codificación de contenidos para comprimir el cuerpo de una solicitud antes de enviarla al destino. Seleccione GZIP o Deshabilitada para habilitar o deshabilitar la codificación de contenidos de su solicitud.
- Retry duration
-
Especifique durante cuánto tiempo Amazon Data Firehose reintenta el envío de datos al punto de conexión HTTP seleccionado.
Tras enviar los datos, Amazon Data Firehose espera primero una confirmación del punto de conexión HTTP. Si se produce un error o la confirmación no llega dentro del periodo de tiempo de espera de confirmación, Amazon Data Firehose pone en marcha el contador de tiempo de reintento. Continúa intentándolo hasta que se agota el tiempo de reintento. Después de eso, Amazon Data Firehose considera que se trata de un error de entrega de datos y crea una copia de seguridad de los datos en el bucket de Amazon S3.
Cada vez que Amazon Data Firehose envía datos al punto de conexión HTTP (ya sea en el intento inicial o en un reintento), reinicia el contador de tiempo de espera de confirmación y espera a que llegue una confirmación del punto de conexión HTTP.
Aunque se agote el tiempo de reintento, Amazon Data Firehose sigue esperando la confirmación hasta que la recibe o hasta que finaliza el periodo de tiempo de espera de confirmación. Si se agota el tiempo de espera de confirmación, Amazon Data Firehose determina si queda tiempo en el contador de reintento. Si queda tiempo, vuelve a intentarlo y repite la lógica hasta que recibe una confirmación o determina que el tiempo de reintento se ha agotado.
Si no desea que Amazon Data Firehose vuelva a intentar el envío de datos, establezca este valor en 0.
- Parámetros: opcional
-
Amazon Data Firehose incluye estos pares de clave-valor en cada llamada HTTP. Estos parámetros pueden ayudarlo a identificar y organizar sus destinos.
- Sugerencias de almacenamiento en búfer
-
Amazon Data Firehose almacena en búfer los datos de entrada antes de entregarlos en el destino especificado. El tamaño del búfer recomendado para el destino varía de un proveedor de servicios a otro.
Configuración de los ajustes de destino de Honeycomb
En esta sección se describen las opciones de uso de Honeycomb como destino. Para obtener más información sobre Honeycomb, consulte https://docs.honeycomb.io/getting-data-in/metrics/aws-cloudwatch-metrics/
-
Proporcione valores para los siguientes campos:
- Punto de conexión entre Honeycomb y Kinesis
-
Especifique la URL del punto de conexión HTTP en el siguiente formato: https://api.honeycomb.io/1/kinesis_events/{{dataset}}
- Autenticación
-
Puede elegir entre introducir la clave de API directamente o recuperar el secreto de AWS Secrets Manager para acceder a Honeycomb.
Clave de la API
Póngase en contacto con Honeycomb para obtener la clave de API necesaria para permitir la entrega de datos en este punto de conexión desde Firehose.
-
Secret
Seleccione un secreto de AWS Secrets Manager que contenga la clave de API de Honeycomb. Si no ve su secreto en la lista desplegable, cree uno en AWS Secrets Manager. Para obtener más información, consulte Autenticación con AWS Secrets Manager en Amazon Data Firehose.
- Codificación de contenidos
-
Amazon Data Firehose utiliza la codificación de contenidos para comprimir el cuerpo de una solicitud antes de enviarla al destino. Elija GZIP para habilitar la codificación del contenido de su solicitud. Esta es la opción recomendada para el destino de Honeycomb.
- Retry duration
-
Especifique durante cuánto tiempo Amazon Data Firehose reintenta el envío de datos al punto de conexión HTTP seleccionado.
Tras enviar los datos, Amazon Data Firehose espera primero una confirmación del punto de conexión HTTP. Si se produce un error o la confirmación no llega dentro del periodo de tiempo de espera de confirmación, Amazon Data Firehose pone en marcha el contador de tiempo de reintento. Continúa intentándolo hasta que se agota el tiempo de reintento. Después de eso, Amazon Data Firehose considera que se trata de un error de entrega de datos y crea una copia de seguridad de los datos en el bucket de Amazon S3.
Cada vez que Amazon Data Firehose envía datos al punto de conexión HTTP (ya sea en el intento inicial o en un reintento), reinicia el contador de tiempo de espera de confirmación y espera a que llegue una confirmación del punto de conexión HTTP.
Aunque se agote el tiempo de reintento, Amazon Data Firehose sigue esperando la confirmación hasta que la recibe o hasta que finaliza el periodo de tiempo de espera de confirmación. Si se agota el tiempo de espera de confirmación, Amazon Data Firehose determina si queda tiempo en el contador de reintento. Si queda tiempo, vuelve a intentarlo y repite la lógica hasta que recibe una confirmación o determina que el tiempo de reintento se ha agotado.
Si no desea que Amazon Data Firehose vuelva a intentar el envío de datos, establezca este valor en 0.
- Parámetros: opcional
-
Amazon Data Firehose incluye estos pares de clave-valor en cada llamada HTTP. Estos parámetros pueden ayudarlo a identificar y organizar sus destinos.
- Sugerencias de almacenamiento en búfer
-
Amazon Data Firehose almacena en búfer los datos de entrada antes de entregarlos en el destino especificado. El tamaño del búfer recomendado para el destino varía de un proveedor de servicios a otro.
Configuración de los ajustes de destino de Coralogix
En esta sección se describen las opciones de uso de Coralogix como destino. Para obtener más información sobre Coralogix, consulte Introducción a Coralogix
-
Proporcione valores para los siguientes campos:
- URL del punto de conexión HTTP
-
Elija la URL del punto de conexión HTTP entre las siguientes opciones del menú desplegable:
-
Coralogix: EE. UU
-
Coralogix: SINGAPUR
-
Coralogix: IRLANDA
-
Coralogix: INDIA
-
Coralogix: ESTOCOLMO
-
- Autenticación
-
Puede elegir entre introducir la clave privada directamente o recuperar el secreto de AWS Secrets Manager para acceder a Coralogix.
Clave privada
Póngase en contacto con Coralogix para obtener la clave privada necesaria para permitir la entrega de datos en este punto de conexión desde Firehose.
-
Secret
Seleccione un secreto de AWS Secrets Manager que contenga la clave privada de Coralogix. Si no ve su secreto en la lista desplegable, cree uno en AWS Secrets Manager. Para obtener más información, consulte Autenticación con AWS Secrets Manager en Amazon Data Firehose.
- Codificación de contenidos
-
Amazon Data Firehose utiliza la codificación de contenidos para comprimir el cuerpo de una solicitud antes de enviarla al destino. Elija GZIP para habilitar la codificación del contenido de su solicitud. Esta es la opción recomendada para el destino de Coralogix.
- Retry duration
-
Especifique durante cuánto tiempo Amazon Data Firehose reintenta el envío de datos al punto de conexión HTTP seleccionado.
Tras enviar los datos, Amazon Data Firehose espera primero una confirmación del punto de conexión HTTP. Si se produce un error o la confirmación no llega dentro del periodo de tiempo de espera de confirmación, Amazon Data Firehose pone en marcha el contador de tiempo de reintento. Continúa intentándolo hasta que se agota el tiempo de reintento. Después de eso, Amazon Data Firehose considera que se trata de un error de entrega de datos y crea una copia de seguridad de los datos en el bucket de Amazon S3.
Cada vez que Amazon Data Firehose envía datos al punto de conexión HTTP (ya sea en el intento inicial o en un reintento), reinicia el contador de tiempo de espera de confirmación y espera a que llegue una confirmación del punto de conexión HTTP.
Aunque se agote el tiempo de reintento, Amazon Data Firehose sigue esperando la confirmación hasta que la recibe o hasta que finaliza el periodo de tiempo de espera de confirmación. Si se agota el tiempo de espera de confirmación, Amazon Data Firehose determina si queda tiempo en el contador de reintento. Si queda tiempo, vuelve a intentarlo y repite la lógica hasta que recibe una confirmación o determina que el tiempo de reintento se ha agotado.
Si no desea que Amazon Data Firehose vuelva a intentar el envío de datos, establezca este valor en 0.
- Parámetros: opcional
-
Amazon Data Firehose incluye estos pares de clave-valor en cada llamada HTTP. Estos parámetros pueden ayudarlo a identificar y organizar sus destinos.
-
applicationName: entorno en el que se ejecuta Data Firehose
-
subsystemName: nombre de la integración de Data Firehose
-
computerName: nombre del flujo de Firehose en uso
-
- Sugerencias de almacenamiento en búfer
-
Amazon Data Firehose almacena en búfer los datos de entrada antes de entregarlos en el destino especificado. El tamaño del búfer recomendado para el destino varía según el proveedor de servicios.
Configuración de los ajustes de destino de Dynatrace
En esta sección se describen las opciones de uso de Dynatrace como destino. Para obtener más información, consulte https://www.dynatrace.com/support/help/technology-support/cloud-platforms/amazon-web-services/integrations/cloudwatch-metric-streams/
-
Elija opciones para usar Dynatrace como destino de su flujo de Firehose.
- Tipo de ingesta
-
Elija si quiere entregar métricas o registros (predeterminado) en Dynatrace para su posterior análisis y procesamiento.
- URL del punto de conexión HTTP
-
Elija la URL del punto de conexión HTTP (Dynatrace EE. UU., Dynatrace UE o Dynatrace Global) en el menú desplegable.
- Autenticación
-
Puede elegir entre introducir el token de la API directamente o recuperar el secreto de AWS Secrets Manager para acceder a Dynatrace.
Token de la API
Genere el token de la API de Dynatrace que necesita para permitir la entrega de datos en este punto de conexión desde Firehose. Para obtener más información, consulte API de Dynatrace: tokens y autenticación
. -
Secret
Seleccione un secreto de AWS Secrets Manager que contenga el token de la API de Dynatrace. Si no ve su secreto en la lista desplegable, cree uno en AWS Secrets Manager. Para obtener más información, consulte Autenticación con AWS Secrets Manager en Amazon Data Firehose.
- URL de la API
-
Proporcione la URL de la API de su entorno de Dynatrace.
- Codificación de contenidos
-
Elija si desea habilitar la codificación de contenido para comprimir el cuerpo de la solicitud. Amazon Data Firehose utiliza la codificación de contenidos para comprimir el cuerpo de una solicitud antes de enviarla al destino. Cuando está habilitada, el contenido se comprime en formato GZIP.
- Retry duration
-
Especifique durante cuánto tiempo Firehose reintenta el envío de datos al punto de conexión HTTP seleccionado.
Tras enviar los datos, Firehose espera primero una confirmación del punto de conexión HTTP. Si se produce un error o la confirmación no llega dentro del periodo de tiempo de espera de confirmación, Firehose pone en marcha el contador de tiempo de reintento. Continúa intentándolo hasta que se agota el tiempo de reintento. Después de eso, Firehose considera que se trata de un error de entrega de datos y crea una copia de seguridad de los datos en el bucket de Amazon S3.
Cada vez que Firehose envía datos al punto de conexión HTTP, ya sea en el intento inicial o en un reintento, reinicia el contador de tiempo de espera de confirmación y espera a que llegue una confirmación del punto de conexión HTTP.
Aunque se agote el tiempo de reintento, Firehose sigue esperando la confirmación hasta que la recibe o hasta que finaliza el tiempo de espera de confirmación. Si se agota el tiempo de espera de confirmación, Firehose determina si queda tiempo en el contador de reintento. Si queda tiempo, vuelve a intentarlo y repite la lógica hasta que recibe una confirmación o determina que el tiempo de reintento se ha agotado.
Si no desea que Firehose vuelva a intentar el envío de datos, establezca este valor en 0.
- Parámetros: opcional
-
Amazon Data Firehose incluye estos pares de clave-valor en cada llamada HTTP. Estos parámetros pueden ayudarlo a identificar y organizar sus destinos.
- Sugerencias de almacenamiento en búfer
-
Amazon Data Firehose almacena en búfer los datos de entrada antes de entregarlos en el destino especificado. Las sugerencias del búfer incluyen el tamaño y el intervalo del búfer para los flujos. El tamaño del búfer recomendado para el destino varía según el proveedor de servicios.
Configuración de los ajustes de destino de LogicMonitor
En esta sección se describen las opciones de uso de LogicMonitor como destino. Para obtener más información, consulte https://www.logicmonitor.com
-
Proporcione valores para los siguientes campos:
- URL del punto de conexión HTTP
-
Especifique la URL del punto de conexión HTTP en el siguiente formato.
https://ACCOUNT.logicmonitor.com - Autenticación
-
Puede elegir entre introducir la clave de API directamente o recuperar el secreto de AWS Secrets Manager para acceder a LogicMonitor.
Clave de la API
Póngase en contacto con LogicMonitor para obtener la clave de API necesaria para permitir la entrega de datos en este punto de conexión desde Firehose.
-
Secret
Seleccione un secreto de AWS Secrets Manager que contenga la clave de API de LogicMonitor. Si no ve su secreto en la lista desplegable, cree uno en AWS Secrets Manager. Para obtener más información, consulte Autenticación con AWS Secrets Manager en Amazon Data Firehose.
- Codificación de contenidos
-
Amazon Data Firehose utiliza la codificación de contenidos para comprimir el cuerpo de una solicitud antes de enviarla al destino. Seleccione GZIP o Deshabilitada para habilitar o deshabilitar la codificación de contenidos de su solicitud.
- Retry duration
-
Especifique durante cuánto tiempo Amazon Data Firehose reintenta el envío de datos al punto de conexión HTTP seleccionado.
Tras enviar los datos, Amazon Data Firehose espera primero una confirmación del punto de conexión HTTP. Si se produce un error o la confirmación no llega dentro del periodo de tiempo de espera de confirmación, Amazon Data Firehose pone en marcha el contador de tiempo de reintento. Continúa intentándolo hasta que se agota el tiempo de reintento. Después de eso, Amazon Data Firehose considera que se trata de un error de entrega de datos y crea una copia de seguridad de los datos en el bucket de Amazon S3.
Cada vez que Amazon Data Firehose envía datos al punto de conexión HTTP (ya sea en el intento inicial o en un reintento), reinicia el contador de tiempo de espera de confirmación y espera a que llegue una confirmación del punto de conexión HTTP.
Aunque se agote el tiempo de reintento, Amazon Data Firehose sigue esperando la confirmación hasta que la recibe o hasta que finaliza el periodo de tiempo de espera de confirmación. Si se agota el tiempo de espera de confirmación, Amazon Data Firehose determina si queda tiempo en el contador de reintento. Si queda tiempo, vuelve a intentarlo y repite la lógica hasta que recibe una confirmación o determina que el tiempo de reintento se ha agotado.
Si no desea que Amazon Data Firehose vuelva a intentar el envío de datos, establezca este valor en 0.
- Parámetros: opcional
-
Amazon Data Firehose incluye estos pares de clave-valor en cada llamada HTTP. Estos parámetros pueden ayudarlo a identificar y organizar sus destinos.
- Sugerencias de almacenamiento en búfer
-
Amazon Data Firehose almacena en búfer los datos de entrada antes de entregarlos en el destino especificado. El tamaño del búfer recomendado para el destino varía de un proveedor de servicios a otro.
Configuración de los ajustes de destino de Logz.io
En esta sección se describen las opciones de uso de Logz.io como destino. Para obtener más información, consulte https://logz.io/
nota
En la región Europa (Milán), Logz.io no se admite como destino de Amazon Data Firehose.
-
Proporcione valores para los siguientes campos:
- URL del punto de conexión HTTP
-
Especifique la URL del punto de conexión HTTP en el siguiente formato. La URL debe ser una URL
HTTPS.https://listener-aws-metrics-stream-<region>.logz.io/Por ejemplo
https://listener-aws-metrics-stream-us.logz.io/ - Autenticación
-
Puede elegir entre introducir el token de envío directamente o recuperar el secreto de AWS Secrets Manager para acceder a LogicMonitor.
-
Token de envío
Póngase en contacto con Logz.io para obtener el token de envío necesario para permitir la entrega de datos en este punto de conexión desde Firehose.
-
Secret
Seleccione un secreto de AWS Secrets Manager que contenga el token de envío de Logz.io. Si no ve su secreto en la lista desplegable, cree uno en AWS Secrets Manager. Para obtener más información, consulte Autenticación con AWS Secrets Manager en Amazon Data Firehose.
-
- Retry duration
-
Especifique durante cuánto tiempo Amazon Data Firehose reintenta el envío de datos a Logz.io.
Tras enviar los datos, Amazon Data Firehose espera primero una confirmación del punto de conexión HTTP. Si se produce un error o la confirmación no llega dentro del periodo de tiempo de espera de confirmación, Amazon Data Firehose pone en marcha el contador de tiempo de reintento. Continúa intentándolo hasta que se agota el tiempo de reintento. Después de eso, Amazon Data Firehose considera que se trata de un error de entrega de datos y crea una copia de seguridad de los datos en el bucket de Amazon S3.
Cada vez que Amazon Data Firehose envía datos al punto de conexión HTTP (ya sea en el intento inicial o en un reintento), reinicia el contador de tiempo de espera de confirmación y espera a que llegue una confirmación del punto de conexión HTTP.
Aunque se agote el tiempo de reintento, Amazon Data Firehose sigue esperando la confirmación hasta que la recibe o hasta que finaliza el periodo de tiempo de espera de confirmación. Si se agota el tiempo de espera de confirmación, Amazon Data Firehose determina si queda tiempo en el contador de reintento. Si queda tiempo, vuelve a intentarlo y repite la lógica hasta que recibe una confirmación o determina que el tiempo de reintento se ha agotado.
Si no desea que Amazon Data Firehose vuelva a intentar el envío de datos, establezca este valor en 0.
- Parámetros: opcional
-
Amazon Data Firehose incluye estos pares de clave-valor en cada llamada HTTP. Estos parámetros pueden ayudarlo a identificar y organizar sus destinos.
- Sugerencias de almacenamiento en búfer
-
Amazon Data Firehose almacena en búfer los datos de entrada antes de entregarlos en el destino especificado. El tamaño del búfer recomendado para el destino varía de un proveedor de servicios a otro.
Configuración de los ajustes de destino de MongoDB Atlas
En esta sección se describen las opciones de uso de MongoDB Atlas como destino. Para obtener más información, consulte MongoDB Atlas en Amazon Web Services
-
Proporcione valores para los siguientes campos:
- URL de API Gateway
-
Especifique la URL del punto de conexión HTTP en el siguiente formato.
https://xxxxx.execute-api.region.amazonaws.com/stageLa URL debe ser una URL
HTTPS. - Autenticación
-
Puede elegir entre introducir la clave de API directamente o recuperar el secreto de AWS Secrets Manager para acceder a MongoDB Atlas.
Clave de la API
Siga las instrucciones de MongoDB Atlas en Amazon Web Services
para obtener el APIKeyValuenecesario para la entrega de datos en este punto de conexión desde Firehose.-
Secret
Seleccione un secreto de AWS Secrets Manager que contenga la clave de API para API Gateway respaldada por Lambda que interactúa con MongoDB Atlas. Si no ve su secreto en la lista desplegable, cree uno en AWS Secrets Manager. Para obtener más información, consulte Autenticación con AWS Secrets Manager en Amazon Data Firehose.
- Codificación de contenidos
-
Amazon Data Firehose utiliza la codificación de contenidos para comprimir el cuerpo de una solicitud antes de enviarla al destino. Seleccione GZIP o Deshabilitada para habilitar o deshabilitar la codificación de contenidos de su solicitud.
- Retry duration
-
Especifique durante cuánto tiempo Amazon Data Firehose reintenta el envío de datos al proveedor de terceros seleccionado.
Tras enviar los datos, Amazon Data Firehose espera primero una confirmación del punto de conexión HTTP. Si se produce un error o la confirmación no llega dentro del periodo de tiempo de espera de confirmación, Amazon Data Firehose pone en marcha el contador de tiempo de reintento. Continúa intentándolo hasta que se agota el tiempo de reintento. Después de eso, Amazon Data Firehose considera que se trata de un error de entrega de datos y crea una copia de seguridad de los datos en el bucket de Amazon S3.
Cada vez que Amazon Data Firehose envía datos al punto de conexión HTTP (ya sea en el intento inicial o en un reintento), reinicia el contador de tiempo de espera de confirmación y espera a que llegue una confirmación del punto de conexión HTTP.
Aunque se agote el tiempo de reintento, Amazon Data Firehose sigue esperando la confirmación hasta que la recibe o hasta que finaliza el periodo de tiempo de espera de confirmación. Si se agota el tiempo de espera de confirmación, Amazon Data Firehose determina si queda tiempo en el contador de reintento. Si queda tiempo, vuelve a intentarlo y repite la lógica hasta que recibe una confirmación o determina que el tiempo de reintento se ha agotado.
Si no desea que Amazon Data Firehose vuelva a intentar el envío de datos, establezca este valor en 0.
- Sugerencias de almacenamiento en búfer
-
Amazon Data Firehose almacena en búfer los datos de entrada antes de entregarlos en el destino especificado. El tamaño del búfer recomendado para el destino varía de un proveedor de servicios a otro.
- Parámetros: opcional
-
Amazon Data Firehose incluye estos pares de clave-valor en cada llamada HTTP. Estos parámetros pueden ayudarlo a identificar y organizar sus destinos.
Configuración de los ajustes de destino de New Relic
En esta sección se describen las opciones de uso de New Relic como destino. Para obtener más información, consulte https://newrelic.com
-
Proporcione valores para los siguientes campos:
- URL del punto de conexión HTTP
-
Elija la URL del punto de conexión HTTP entre las siguientes opciones del menú desplegable.
-
Registros de New Relic: EE. UU
-
Métricas de New Relic: EE. UU
-
Métricas de New Relic: UE
-
- Autenticación
-
Puede elegir entre introducir la clave de API directamente o recuperar el secreto de AWS Secrets Manager para acceder a New Relic.
Clave de la API
Ingrese la clave de licencia, que es una cadena hexadecimal de 40 caracteres, en la configuración de la cuenta de New Relic One. Esta clave de API es necesaria para permitir la entrega de datos en este punto de conexión desde Firehose.
-
Secret
Seleccione un secreto de AWS Secrets Manager que contenga la clave de API de New Relic. Si no ve su secreto en la lista desplegable, cree uno en AWS Secrets Manager. Para obtener más información, consulte Autenticación con AWS Secrets Manager en Amazon Data Firehose.
- Codificación de contenidos
-
Amazon Data Firehose utiliza la codificación de contenidos para comprimir el cuerpo de una solicitud antes de enviarla al destino. Seleccione GZIP o Deshabilitada para habilitar o deshabilitar la codificación de contenidos de su solicitud.
- Retry duration
-
Especifique durante cuánto tiempo Amazon Data Firehose reintenta el envío de datos al punto de conexión HTTP de New Relic.
Tras enviar los datos, Amazon Data Firehose espera primero una confirmación del punto de conexión HTTP. Si se produce un error o la confirmación no llega dentro del periodo de tiempo de espera de confirmación, Amazon Data Firehose pone en marcha el contador de tiempo de reintento. Continúa intentándolo hasta que se agota el tiempo de reintento. Después de eso, Amazon Data Firehose considera que se trata de un error de entrega de datos y crea una copia de seguridad de los datos en el bucket de Amazon S3.
Cada vez que Amazon Data Firehose envía datos al punto de conexión HTTP (ya sea en el intento inicial o en un reintento), reinicia el contador de tiempo de espera de confirmación y espera a que llegue una confirmación del punto de conexión HTTP.
Aunque se agote el tiempo de reintento, Amazon Data Firehose sigue esperando la confirmación hasta que la recibe o hasta que finaliza el periodo de tiempo de espera de confirmación. Si se agota el tiempo de espera de confirmación, Amazon Data Firehose determina si queda tiempo en el contador de reintento. Si queda tiempo, vuelve a intentarlo y repite la lógica hasta que recibe una confirmación o determina que el tiempo de reintento se ha agotado.
Si no desea que Amazon Data Firehose vuelva a intentar el envío de datos, establezca este valor en 0.
- Parámetros: opcional
-
Amazon Data Firehose incluye estos pares de clave-valor en cada llamada HTTP. Estos parámetros pueden ayudarlo a identificar y organizar sus destinos.
- Sugerencias de almacenamiento en búfer
-
Amazon Data Firehose almacena en búfer los datos de entrada antes de entregarlos en el destino especificado. El tamaño del búfer recomendado para el destino varía de un proveedor de servicios a otro.
Configuración de los ajustes de destino de Snowflake
En esta sección, se describen las opciones de uso de Snowflake como destino.
nota
La integración de Firehose con Snowflake está disponible en las siguientes Regiones de AWS: Este de EE. UU. (Norte de Virginia), Oeste de EE. UU. (Oregón), Europa (Irlanda), Este de EE. UU. (Ohio), Asia-Pacífico (Tokio), Europa (Fráncfort), Asia-Pacífico (Singapur), Asia-Pacífico (Seúl) y Asia-Pacífico (Sídney), Asia-Pacífico (Bombay), Europa (Londres), América del Sur (São Paulo), Canadá (centro), Europa (París), Asia-Pacífico (Osaka), Europa (Estocolmo), Asia-Pacífico (Yakarta).
Configuraciones de conexión
-
Proporcione valores para los siguientes campos:
- URL de la cuenta de Snowflake
-
Especifique la URL de una cuenta de Snowflake. Por ejemplo:
xy12345.us-east-1.aws.snowflakecomputing.com. Consulte la documentación de Snowflakepara saber cómo determinar la URL de su cuenta. Tenga en cuenta que no debe especificar el número de puerto, y el protocolo (https://) es opcional. - Autenticación
-
Puede elegir entre introducir el nombre de usuario, la clave privada y la frase de contraseña manualmente o recuperar el secreto de AWS Secrets Manager para acceder a Snowflake.
-
Inicio de sesión de usuario
Especifique el usuario de Snowflake que se utilizará para cargar los datos. Asegúrese de que el usuario tenga acceso para insertar datos en la tabla de Snowflake.
-
Clave privada
Especifique la clave privada para la autenticación con Snowflake en formato
PKCS8. Además, no incluya el encabezado y el pie de página PEM como parte de la clave privada. Si la clave está dividida en varias líneas, elimine los saltos de línea. A continuación, se muestra un ejemplo de cómo debe ser su clave privada.-----BEGIN PRIVATE KEY----- KEY_CONTENT -----END PRIVATE KEY-----Elimine el espacio en
KEY_CONTENTy colóquela en Firehose. No se requieren caracteres de encabezado/pie de página ni de nueva línea. Contraseña
Especifique la contraseña para descifrar la clave privada cifrada. Puede dejar este campo vacío si la clave privada no está cifrada. Para obtener más información, consulte Uso de la autenticación de pares de claves y la rotación de claves
. -
Secret
Seleccione un secreto de AWS Secrets Manager que contenga las credenciales de Snowflake. Si no ve su secreto en la lista desplegable, cree uno en AWS Secrets Manager. Para obtener más información, consulte Autenticación con AWS Secrets Manager en Amazon Data Firehose.
-
- Configuración de roles
-
Usar el rol de Snowflake predeterminado: si se selecciona esta opción, Firehose no pasará ningún rol a Snowflake. Se asume que el rol predeterminado carga los datos. Asegúrese de que el rol predeterminado tenga permiso para insertar datos en la tabla de Snowflake.
Usar un rol de Snowflake personalizado: introduzca un rol de Snowflake no predeterminado para que lo asuma Firehose al cargar datos en la tabla de Snowflake.
- Conexión a Snowflake
-
Las opciones son Privada o Pública.
- ID de VPCE privado (opcional)
-
El ID de VPCE para que Firehose se conecte de forma privada con Snowflake. El formato de ID es com.amazonaws.vpce.[region].vpce-svc-
[id]. Para obtener más información, consulte AWS PrivateLink y Snowflake. nota
Si su clúster de Snowflake tiene habilitados los enlaces privados, utilice una política de red basada en
AwsVpceIdspara permitir los datos de Amazon Data Firehose. Firehose no requiere que configure una política de red basada en IP en su cuenta de Snowflake. Si tiene habilitada una política de red basada en IP, podría interferir con la conectividad de Firehose. En un caso extremo que requiera una política basada en IP, póngase en contacto con el equipo de Firehose enviando un ticket de soporte. Para obtener una lista de los ID de VPCE que puede utilizar, consulte la Acceso a Snowflake en VPC.
Configuración de las bases de datos
-
Debe especificar la siguiente configuración para poder utilizar Snowflake como destino del flujo de Firehose.
-
Base de datos de Snowflake: todos los datos de Snowflake se mantienen en bases de datos.
-
Esquema de Snowflake: cada base de datos consta de uno o más esquemas, que son agrupaciones lógicas de objetos de base de datos, como tablas y vistas.
-
Tabla de Snowflake: todos los datos de Snowflake se almacenan en tablas de bases de datos, estructuradas de forma lógica como conjuntos de columnas y filas.
-
Opciones de carga de datos para la tabla de Snowflake
-
Utilice claves JSON como nombres de columnas
Utilice columnas VARIANT
Nombre de la columna de contenido: especifique un nombre de columna en la tabla, donde se deben cargar los datos sin procesar.
Nombre de la columna de metadatos (opcional): especifique un nombre de columna en la tabla, donde se debe cargar la información de los metadatos. Al habilitar este campo, verá la siguiente columna en la tabla Snowflake según el tipo de origen.
Para Direct PUT como origen
{ "firehoseDeliveryStreamName" : "streamname", "IngestionTime" : "timestamp" }Para Kinesis Data Stream como origen
{ "kinesisStreamName" : "streamname", "kinesisShardId" : "Id", "kinesisPartitionKey" : "key", "kinesisSequenceNumber" : "1234", "subsequenceNumber" : "2334", "IngestionTime" : "timestamp" }
Retry duration
Tiempo (entre 0 y 7200 segundos) para que Firehose vuelva a intentarlo si falla la apertura del canal o la entrega a Snowflake debido a problemas con el servicio de Snowflake. Firehose hace reintentos con un retroceso exponencial hasta que finaliza el tiempo de reintento. Si establece la duración del reintento en 0 (cero) segundos, Firehose no lo reintenta tras producirse errores en Snowflake y enruta los datos al bucket de errores de Amazon S3.
Sugerencias de almacenamiento en búfer
Amazon Data Firehose almacena en búfer los datos de entrada antes de entregarlos en el destino especificado. El tamaño del búfer recomendado para el destino varía de un proveedor de servicios a otro. Para obtener más información, consulte Configuración de sugerencias de almacenamiento en búfer.
Configuración de los ajustes de destino de Splunk
Esta sección describe las opciones de uso de Splunk como destino.
nota
Firehose entrega los datos a los clústeres de Splunk configurados con equilibrador de carga clásico o un equilibrador de carga de aplicación.
-
Proporcione valores para los siguientes campos:
- Splunk cluster endpoint
-
Para determinar el punto de conexión, consulte Configuración de Amazon Data Firehose para enviar datos a la plataforma Spunk
en la documentación de Splunk. - Splunk endpoint type
-
Elija
Raw endpointen la mayoría de los casos. ElijaEvent endpointsi ha preprocesado los datos mediante AWS Lambda para enviar datos a distintos índices según el tipo de evento. Para obtener información sobre el punto de conexión que debe utilizar, consulte Configuración de Amazon Data Firehose para enviar datos a la plataforma de Spunken la documentación de Splunk. - Autenticación
-
Puede elegir entre introducir el token de autenticación directamente o recuperar el secreto de AWS Secrets Manager para acceder a Splunk.
Authentication token
Para configurar un punto de conexión de Splunk que pueda recibir datos de Amazon Data Firehose, consulte Descripción general de la instalación y la configuración del complemento de Splunk en Amazon Kinesis Firehose
en la documentación de Splunk. Guarde el token que obtiene de Splunk al configurar el punto de conexión de este flujo de Firehose y añádalo aquí. -
Secret
Seleccione un secreto de AWS Secrets Manager que contenga el token de autenticación de Splunk. Si no ve su secreto en la lista desplegable, cree uno en AWS Secrets Manager. Para obtener más información, consulte Autenticación con AWS Secrets Manager en Amazon Data Firehose.
- HEC acknowledgement timeout
-
Especifique durante cuánto tiempo debe esperar Amazon Data Firehose la confirmación de índices de Splunk. Si Splunk no envía la confirmación antes de que finalice el tiempo de espera, Amazon Data Firehose considera que ha habido un error en la entrega de datos. A continuación, Amazon Data Firehose hace un reintento o crea una copia de seguridad de los datos en el bucket de Amazon S3, según el valor que se haya establecido para el tiempo de reintento.
- Retry duration
-
Especifique durante cuánto tiempo Amazon Data Firehose reintenta el envío de datos a Splunk.
Tras enviar los datos, Amazon Data Firehose espera primero una confirmación de Splunk. Si se produce un error o la confirmación no llega dentro del periodo de tiempo de espera de confirmación, Amazon Data Firehose pone en marcha el contador de tiempo de reintento. Continúa intentándolo hasta que se agota el tiempo de reintento. Después de eso, Amazon Data Firehose considera que se trata de un error de entrega de datos y crea una copia de seguridad de los datos en el bucket de Amazon S3.
Cada vez que Amazon Data Firehose envía datos a Splunk (ya sea en el intento inicial o en un reintento), reinicia el contador de tiempo de espera de confirmación y espera a que llegue una confirmación de Splunk.
Aunque se agote el tiempo de reintento, Amazon Data Firehose sigue esperando la confirmación hasta que la recibe o hasta que finaliza el periodo de tiempo de espera de confirmación. Si se agota el tiempo de espera de confirmación, Amazon Data Firehose determina si queda tiempo en el contador de reintento. Si queda tiempo, vuelve a intentarlo y repite la lógica hasta que recibe una confirmación o determina que el tiempo de reintento se ha agotado.
Si no desea que Amazon Data Firehose vuelva a intentar el envío de datos, establezca este valor en 0.
- Sugerencias de almacenamiento en búfer
-
Amazon Data Firehose almacena en búfer los datos de entrada antes de entregarlos en el destino especificado. El tamaño del búfer recomendado para el destino varía según el proveedor de servicios.
Configuración de los ajustes de destino de Splunk Observability Cloud
En esta sección se describen las opciones de uso de Splunk Observability Cloud como destino. Para obtener más información, consulte https://docs.splunk.com/observability/en/gdi/get-data-in/connect/aws/aws-apiconfig.html#connect-to-aws-using-the-splunk-observability-cloud-api
-
Proporcione valores para los siguientes campos:
- URL del punto de conexión de ingesta de la nube
-
Puede encontrar la URL de ingesta de datos en tiempo real de Splunk Observability Cloud en Profile > Organizations > Real-time Data Ingest Endpoint, en la consola de Splunk Observability.
- Autenticación
-
Puede elegir entre introducir el token de acceso directamente o recuperar el secreto de AWS Secrets Manager para acceder a Splunk Observability Cloud.
Token de acceso
Copie su token de acceso a Splunk Observability con el ámbito de autorización de INGEST desde Tokens de acceso en Ajustes en la consola de Splunk Observability.
-
Secret
Seleccione un secreto de AWS Secrets Manager que contenga el token de acceso a Splunk Observability Cloud. Si no ve su secreto en la lista desplegable, cree uno en AWS Secrets Manager. Para obtener más información, consulte Autenticación con AWS Secrets Manager en Amazon Data Firehose.
- Codificación de contenidos
-
Amazon Data Firehose utiliza la codificación de contenidos para comprimir el cuerpo de una solicitud antes de enviarla al destino. Seleccione GZIP o Deshabilitada para habilitar o deshabilitar la codificación de contenidos de su solicitud.
- Retry duration
-
Especifique durante cuánto tiempo Amazon Data Firehose reintenta el envío de datos al punto de conexión HTTP seleccionado.
Tras enviar los datos, Amazon Data Firehose espera primero una confirmación del punto de conexión HTTP. Si se produce un error o la confirmación no llega dentro del periodo de tiempo de espera de confirmación, Amazon Data Firehose pone en marcha el contador de tiempo de reintento. Continúa intentándolo hasta que se agota el tiempo de reintento. Después de eso, Amazon Data Firehose considera que se trata de un error de entrega de datos y crea una copia de seguridad de los datos en el bucket de Amazon S3.
Cada vez que Amazon Data Firehose envía datos al punto de conexión HTTP (ya sea en el intento inicial o en un reintento), reinicia el contador de tiempo de espera de confirmación y espera a que llegue una confirmación del punto de conexión HTTP.
Aunque se agote el tiempo de reintento, Amazon Data Firehose sigue esperando la confirmación hasta que la recibe o hasta que finaliza el periodo de tiempo de espera de confirmación. Si se agota el tiempo de espera de confirmación, Amazon Data Firehose determina si queda tiempo en el contador de reintento. Si queda tiempo, vuelve a intentarlo y repite la lógica hasta que recibe una confirmación o determina que el tiempo de reintento se ha agotado.
Si no desea que Amazon Data Firehose vuelva a intentar el envío de datos, establezca este valor en 0.
- Parámetros: opcional
-
Amazon Data Firehose incluye estos pares de clave-valor en cada llamada HTTP. Estos parámetros pueden ayudarlo a identificar y organizar sus destinos.
- Sugerencias de almacenamiento en búfer
-
Amazon Data Firehose almacena en búfer los datos de entrada antes de entregarlos en el destino especificado. El tamaño del búfer recomendado para el destino varía de un proveedor de servicios a otro.
Configuración de los ajustes de destino de Sumo Logic
En esta sección se describen las opciones de uso de Sumo Logic como destino. Para obtener más información, consulte https://www.sumologic.com
-
Proporcione valores para los siguientes campos:
- URL del punto de conexión HTTP
-
Especifique la URL del punto de conexión HTTP en el siguiente formato:
https://deployment name.sumologic.net/receiver/v1/kinesis/dataType/access token. La URL debe ser una URL HTTPS. - Codificación de contenidos
-
Amazon Data Firehose utiliza la codificación de contenidos para comprimir el cuerpo de una solicitud antes de enviarla al destino. Seleccione GZIP o Deshabilitada para habilitar o deshabilitar la codificación de contenidos de su solicitud.
- Retry duration
-
Especifique durante cuánto tiempo Amazon Data Firehose reintenta el envío de datos a Sumo Logic.
Tras enviar los datos, Amazon Data Firehose espera primero una confirmación del punto de conexión HTTP. Si se produce un error o la confirmación no llega dentro del periodo de tiempo de espera de confirmación, Amazon Data Firehose pone en marcha el contador de tiempo de reintento. Continúa intentándolo hasta que se agota el tiempo de reintento. Después de eso, Amazon Data Firehose considera que se trata de un error de entrega de datos y crea una copia de seguridad de los datos en el bucket de Amazon S3.
Cada vez que Amazon Data Firehose envía datos al punto de conexión HTTP (ya sea en el intento inicial o en un reintento), reinicia el contador de tiempo de espera de confirmación y espera a que llegue una confirmación del punto de conexión HTTP.
Aunque se agote el tiempo de reintento, Amazon Data Firehose sigue esperando la confirmación hasta que la recibe o hasta que finaliza el periodo de tiempo de espera de confirmación. Si se agota el tiempo de espera de confirmación, Amazon Data Firehose determina si queda tiempo en el contador de reintento. Si queda tiempo, vuelve a intentarlo y repite la lógica hasta que recibe una confirmación o determina que el tiempo de reintento se ha agotado.
Si no desea que Amazon Data Firehose vuelva a intentar el envío de datos, establezca este valor en 0.
- Parámetros: opcional
-
Amazon Data Firehose incluye estos pares de clave-valor en cada llamada HTTP. Estos parámetros pueden ayudarlo a identificar y organizar sus destinos.
- Sugerencias de almacenamiento en búfer
-
Amazon Data Firehose almacena en búfer los datos de entrada antes de entregarlos en el destino especificado. El tamaño del búfer recomendado para el destino de Elastic varía de un proveedor de servicios a otro.
Configuración de los ajustes de destino de Elastic
En esta sección se describen las opciones de uso de Elastic como destino.
-
Proporcione valores para los siguientes campos:
- URL del punto de conexión de Elastic
-
Especifique la URL del punto de conexión HTTP en el siguiente formato:
https://<cluster-id>.es.<region>.aws.elastic-cloud.com. La URL debe ser una URL HTTPS. - Autenticación
-
Puede elegir entre introducir la clave de API directamente o recuperar el secreto de AWS Secrets Manager para acceder a Elastic.
Clave de la API
Póngase en contacto con Elastic para obtener la clave de API necesaria para permitir la entrega de datos en su servicio desde Firehose.
-
Secret
Seleccione un secreto de AWS Secrets Manager que contenga la clave de API de Elastic. Si no ve su secreto en la lista desplegable, cree uno en AWS Secrets Manager. Para obtener más información, consulte Autenticación con AWS Secrets Manager en Amazon Data Firehose.
- Codificación de contenidos
-
Amazon Data Firehose utiliza la codificación de contenidos para comprimir el cuerpo de una solicitud antes de enviarla al destino. Seleccione GZIP (que es la opción seleccionada de forma predeterminada) o Deshabilitada para habilitar o deshabilitar la codificación de contenidos de su solicitud.
- Retry duration
-
Especifique durante cuánto tiempo Amazon Data Firehose reintenta el envío de datos a Elastic.
Tras enviar los datos, Amazon Data Firehose espera primero una confirmación del punto de conexión HTTP. Si se produce un error o la confirmación no llega dentro del periodo de tiempo de espera de confirmación, Amazon Data Firehose pone en marcha el contador de tiempo de reintento. Continúa intentándolo hasta que se agota el tiempo de reintento. Después de eso, Amazon Data Firehose considera que se trata de un error de entrega de datos y crea una copia de seguridad de los datos en el bucket de Amazon S3.
Cada vez que Amazon Data Firehose envía datos al punto de conexión HTTP (ya sea en el intento inicial o en un reintento), reinicia el contador de tiempo de espera de confirmación y espera a que llegue una confirmación del punto de conexión HTTP.
Aunque se agote el tiempo de reintento, Amazon Data Firehose sigue esperando la confirmación hasta que la recibe o hasta que finaliza el periodo de tiempo de espera de confirmación. Si se agota el tiempo de espera de confirmación, Amazon Data Firehose determina si queda tiempo en el contador de reintento. Si queda tiempo, vuelve a intentarlo y repite la lógica hasta que recibe una confirmación o determina que el tiempo de reintento se ha agotado.
Si no desea que Amazon Data Firehose vuelva a intentar el envío de datos, establezca este valor en 0.
- Parámetros: opcional
-
Amazon Data Firehose incluye estos pares de clave-valor en cada llamada HTTP. Estos parámetros pueden ayudarlo a identificar y organizar sus destinos.
- Sugerencias de almacenamiento en búfer
-
Amazon Data Firehose almacena en búfer los datos de entrada antes de entregarlos en el destino especificado. El tamaño de búfer recomendado para el destino de Elastic es de 1 MiB.