

Las traducciones son generadas a través de traducción automática. En caso de conflicto entre la traducción y la version original de inglés, prevalecerá la version en inglés.

# ¿Qué es Amazon Data Firehose?
¿Qué es Amazon Data Firehose?

Amazon Data Firehose es un servicio totalmente gestionado para entregar [datos de streaming](https://aws.amazon.com/streaming-data/) en tiempo real a destinos como Amazon Simple Storage Service (Amazon S3), Amazon Redshift, Amazon Service, OpenSearch Amazon Serverless, Splunk, Apache Iceberg Tables y cualquier punto de enlace HTTP personalizado o punto de enlace HTTP propiedad de proveedores de servicios externos compatibles, incluidos Datadog, LogicMonitor Dynatrace, MongoDB, New Relic, Coralogix y Elastic. OpenSearch Con Amazon Data Firehose, no es necesario escribir aplicaciones ni administrar recursos. Configure los productores de datos para que envíen datos a Amazon Data Firehose y este los entrega automáticamente al destino que haya especificado. También puede configurar Amazon Data Firehose para transformar los datos antes de entregarlos.

Para obtener más información sobre las soluciones de AWS big data, consulte [Big Data en AWS](https://aws.amazon.com/big-data/). Para obtener más información sobre las soluciones de datos de streaming de AWS , consulte [¿Qué son los datos de streaming?](https://aws.amazon.com/streaming-data/).

## Conozca los conceptos clave


Al empezar a utilizar Amazon Data Firehose, es recomendable comprender los siguientes conceptos.

**Flujo de Firehose**  
Entidad subyacente de Amazon Data Firehose. Para usar Amazon Data Firehose, se crea un flujo de Firehose y, a continuación, se le envían datos. Para obtener más información, consulte [Tutorial: Crear un flujo de Firehose desde la consola](basic-create.md) y [Enviar datos a un flujo de Firehose](basic-write.md).

**Registro**  
Datos de interés que el productor de datos envía a un flujo de Firehose. Cada registro puede pesar hasta 1000 KB.

**Productor de datos**  
Los productores envían los registros a los flujos de Firehose. Por ejemplo, un servidor web que envía datos de registro a un flujo de Firehose es un productor de datos. También puede configurar el flujo de Firehose para que lea automáticamente los datos de un flujo de datos de Kinesis existente y los cargue en los destinos. Para obtener más información, consulte [Enviar datos a un flujo de Firehose](basic-write.md).

**Tamaño e intervalo del búfer**  
Amazon Data Firehose almacena en búfer los datos de streaming entrantes hasta un tamaño determinado o durante un período de tiempo determinado antes de entregarlos a los destinos. **Buffer Size**está en MBs y **Buffer Interval** está en segundos.

## Descripción del flujo de datos en Amazon Data Firehose


En el caso de los destinos de Amazon S3, los datos de streaming se entregan en el bucket de S3. Si habilita la transformación de datos, puede realizar una copia de seguridad de los datos de origen en otro bucket de Amazon S3.

![\[Un diagrama que muestra el flujo de datos de Amazon Data Firehose para Amazon S3.\]](http://docs.aws.amazon.com/es_es/firehose/latest/dev/images/fh-flow-s3.png)


En el caso de los destinos de Amazon Redshift, los datos de streaming se entregan primero en el bucket de S3. A continuación, Amazon Data Firehose emite un comando **COPY** de Amazon Redshift para cargar los datos del bucket de S3 en el clúster de Amazon Redshift. Si habilita la transformación de datos, puede realizar una copia de seguridad de los datos de origen en otro bucket de Amazon S3.

![\[Un diagrama que muestra un flujo de datos de Amazon Data Firehose para Amazon Redshift.\]](http://docs.aws.amazon.com/es_es/firehose/latest/dev/images/fh-flow-rs.png)


En el caso de los destinos de OpenSearch servicio, los datos de streaming se envían a su clúster de OpenSearch servicios y, si lo prefiere, se puede hacer una copia de seguridad de ellos en su bucket de S3 de forma simultánea.

![\[Un diagrama que muestra el flujo de datos de Amazon Data Firehose para OpenSearch Service.\]](http://docs.aws.amazon.com/es_es/firehose/latest/dev/images/fh-flow-es.png)


Si el destino es Splunk, los datos de streaming se entregan a Splunk y se puede hacer un backup de ellos en el bucket de S3 simultáneamente. 

![\[Un diagrama que muestra un flujo de datos de Amazon Data Firehose para Splunk.\]](http://docs.aws.amazon.com/es_es/firehose/latest/dev/images/fh-flow-splunk.png)


# Uso de Firehose con un SDK AWS
Trabajando con AWS SDKs

AWS Los kits de desarrollo de software (SDKs) están disponibles para muchos lenguajes de programación populares. Cada SDK proporciona una API, ejemplos de código y documentación que facilitan a los desarrolladores la creación de aplicaciones en su lenguaje preferido.


| Documentación de SDK | Ejemplos de código | 
| --- | --- | 
| [AWS SDK para C\$1\$1](https://docs.aws.amazon.com/sdk-for-cpp) | [AWS SDK para C\$1\$1 ejemplos de código](https://github.com/awsdocs/aws-doc-sdk-examples/tree/main/cpp) | 
| [AWS CLI](https://docs.aws.amazon.com/cli) | [AWS CLI ejemplos de código](https://docs.aws.amazon.com/code-library/latest/ug/cli_2_code_examples.html) | 
| [AWS SDK para Go](https://docs.aws.amazon.com/sdk-for-go) | [AWS SDK para Go ejemplos de código](https://github.com/awsdocs/aws-doc-sdk-examples/tree/main/gov2) | 
| [AWS SDK para Java](https://docs.aws.amazon.com/sdk-for-java) | [AWS SDK para Java ejemplos de código](https://github.com/awsdocs/aws-doc-sdk-examples/tree/main/javav2) | 
| [AWS SDK para JavaScript](https://docs.aws.amazon.com/sdk-for-javascript) | [AWS SDK para JavaScript ejemplos de código](https://github.com/awsdocs/aws-doc-sdk-examples/tree/main/javascriptv3) | 
| [AWS SDK para Kotlin](https://docs.aws.amazon.com/sdk-for-kotlin) | [AWS SDK para Kotlin ejemplos de código](https://github.com/awsdocs/aws-doc-sdk-examples/tree/main/kotlin) | 
| [AWS SDK para .NET](https://docs.aws.amazon.com/sdk-for-net) | [AWS SDK para .NET ejemplos de código](https://github.com/awsdocs/aws-doc-sdk-examples/tree/main/dotnetv3) | 
| [AWS SDK para PHP](https://docs.aws.amazon.com/sdk-for-php) | [AWS SDK para PHP ejemplos de código](https://github.com/awsdocs/aws-doc-sdk-examples/tree/main/php) | 
| [Herramientas de AWS para PowerShell](https://docs.aws.amazon.com/powershell) | [Herramientas de AWS para PowerShell ejemplos de código](https://docs.aws.amazon.com/code-library/latest/ug/powershell_5_code_examples.html) | 
| [AWS SDK para Python (Boto3)](https://docs.aws.amazon.com/pythonsdk) | [AWS SDK para Python (Boto3) ejemplos de código](https://github.com/awsdocs/aws-doc-sdk-examples/tree/main/python) | 
| [AWS SDK para Ruby](https://docs.aws.amazon.com/sdk-for-ruby) | [AWS SDK para Ruby ejemplos de código](https://github.com/awsdocs/aws-doc-sdk-examples/tree/main/ruby) | 
| [AWS SDK para Rust](https://docs.aws.amazon.com/sdk-for-rust) | [AWS SDK para Rust ejemplos de código](https://github.com/awsdocs/aws-doc-sdk-examples/tree/main/rustv1) | 
| [AWS SDK para SAP ABAP](https://docs.aws.amazon.com/sdk-for-sapabap) | [AWS SDK para SAP ABAP ejemplos de código](https://github.com/awsdocs/aws-doc-sdk-examples/tree/main/sap-abap) | 
| [AWS SDK para Swift](https://docs.aws.amazon.com/sdk-for-swift) | [AWS SDK para Swift ejemplos de código](https://github.com/awsdocs/aws-doc-sdk-examples/tree/main/swift) | 

**Ejemplo de disponibilidad**  
¿No encuentra lo que necesita? Solicite un ejemplo de código a través del enlace de **Enviar comentarios** que se encuentra al final de esta página.