

Las traducciones son generadas a través de traducción automática. En caso de conflicto entre la traducción y la version original de inglés, prevalecerá la version en inglés.

# Elija el origen y el destino del flujo de Firehose
<a name="create-name"></a>

****

1. Abra la consola de Firehose en [https://console.aws.amazon.com/firehose/](https://console.aws.amazon.com/firehose/).

1. Seleccione **Crear flujo de Firehose**. 

1. En la página **Crear flujo de Firehose**, elija una fuente para su flujo de Firehose de una de las siguientes opciones.
   + **Direct PUT:** elija esta opción para crear un flujo de Firehose en el que las aplicaciones de los productores escriban directamente. Esta es una lista de servicios y agentes de AWS y servicios de código abierto que se integran con Direct PUT en Amazon Data Firehose. Esta lista no es exhaustiva y es posible que haya servicios adicionales que se puedan utilizar para enviar datos directamente a Firehose.
     + AWS SDK
     + AWS Lambda
     + Registros de AWS CloudWatch
     + Eventos de AWS CloudWatch
     + Flujos de métricas en la nube de AWS
     + AWS IoT
     + AWS EventBridge
     + Amazon Simple Email Service
     + Amazon SNS
     + Registros de ACL web de AWS WAF
     + Amazon API Gateway: registros de acceso
     + Amazon Pinpoint
     + Registro de agente de Amazon MSK
     + Registros de consultas de Amazon Route 53 Resolver
     + Registros de alertas de AWS Network Firewall
     + Registros de flujos de AWS Network Firewall
     + Amazon ElastiCache Redis SLOWLOG
     + Agente de Kinesis (Linux)
     + Kinesis Tap (Windows)
     + Fluentbit
     + Fluentd
     + Apache Nifi
     + Snowflake
   + **Amazon Kinesis Data Streams** seleccione esta opción para configurar un flujo de Firehose que utilice un flujo de datos de Kinesis como origen de datos. A continuación, puede usar Firehose para leer fácilmente los datos de un flujo de datos de Kinesis existente y cargarlos en los destinos. Para obtener más información sobre el uso de Kinesis Data Streams como origen de datos, consulte [Enviar datos a un flujo de Firehose con Kinesis Data Streams](writing-with-kinesis-streams.md).
   + **Amazon MSK:** seleccione esta opción para configurar un flujo de Firehose que utilice Amazon MSK como origen de datos. A continuación, puede utilizar Firehose para leer fácilmente los datos de un clúster existente de Amazon MSK y cargarlos en los buckets de S3 especificados. Para obtener más información, consulte [Envío de datos a un flujo de Firehose con Amazon MSK](writing-with-msk.md).

1. Elija un destino para su flujo de Firehose de uno de los siguientes destinos compatibles con Firehose.
   + Amazon OpenSearch Service
   + Amazon OpenSearch sin servidor
   + Amazon Redshift
   + Amazon S3
   + Tablas de Apache Iceberg
   + Coralogix
   + Datadog
   + Dynatrace
   + Elastic
   + Punto de conexión HTTP
   + Honeycomb
   + Logic Monitor
   + Logz.io
   + MongoDB Cloud
   + New Relic
   + Splunk
   + Splunk Observability Cloud
   + Sumo Logic
   + Snowflake

1. Para el **nombre del flujo de Firehose**, puede usar el nombre que la consola genere para usted o añadir el flujo de Firehose que elija.