

As traduções são geradas por tradução automática. Em caso de conflito entre o conteúdo da tradução e da versão original em inglês, a versão em inglês prevalecerá.

# Escolha da fonte e do destino para seu fluxo do Firehose
<a name="create-name"></a>

****

1. Abra o console do Firehose em [https://console.aws.amazon.com/firehose/](https://console.aws.amazon.com/firehose/).

1. Escolha **Criar fluxo do Firehose**. 

1. Na página **Criar fluxo do Firehose**, escolha uma fonte para seu fluxo do Firehose em uma das opções a seguir.
   + **Direct PUT**: escolha esta opção para criar um fluxo do Firehose no qual as aplicações de produção gravem diretamente. Para obter uma lista de serviços e agentes da AWS e dos serviços de código aberto integrados com o Direct PUT no Amazon Data Firehose. Essa lista não é completa e pode haver serviços adicionais que podem ser usados para enviar dados diretamente para o Firehose.
     + AWS SDK
     + AWS Lambda
     + AWS CloudWatch Logs
     + AWS CloudWatch Events
     + AWS Cloud Metric Streams
     + AWS IoT
     + AWS Eventbridge
     + Amazon Simple Email Service
     + Amazon SNS
     + Logs de ACL da Web do AWS WAF
     + Amazon API Gateway: logs de acesso
     + Amazon Pinpoint
     + Logs do agente do Amazon MSK
     + Logs de consultas do Amazon Route 53 Resolver
     + Logs de alertas do AWS Network Firewall
     + Logs de fluxos do AWS Network Firewall
     + SLOWLOG do Amazon ElastiCache Redis
     + Kinesis Agent (linux)
     + Kinesis Tap (windows)
     + Fluentbit
     + Fluentd
     + Apache Nifi
     + Snowflake
   + **Amazon Kinesis Data Streams**: escolha esta opção para configurar um fluxo do Firehose que use um fluxo de dados do Kinesis como fonte de dados. Você então poderá usar o Firehose para ler dados com facilidade de um fluxo de dados do Kinesis existente e carregá-lo nos destinos. Para obter mais informações sobre o uso do Kinesis Data Streams como fonte de dados, consulte [Envio de dados a um fluxo do Firehose usando o Kinesis Data Streams](writing-with-kinesis-streams.md).
   + **Amazon MSK**: escolha esta opção para configurar um fluxo do Firehose que use o Amazon MSK como fonte de dados. Em seguida, é possível usar o Firehose para ler dados facilmente de um cluster do Amazon MSK existente e carregá-los nos buckets do S3 especificados. Para obter mais informações, consulte [Envio de dados a um fluxo do Firehose com o Amazon MSK](writing-with-msk.md).

1. Escolha um destino para seu fluxo do Firehose a partir de um dos destinos a seguir com suporte no Firehose.
   + Amazon OpenSearch Service
   + Amazon OpenSearch de tecnologia sem servidor
   + Amazon Redshift
   + Amazon S3
   + Tabelas do Apache Iceberg
   + Coralogix
   + Datadog
   + Dynatrace
   + Elastic
   + Endpoint de HTTP
   + Honeycomb
   + Logic Monitor
   + Logz.io
   + MongoDB Cloud
   + New Relic
   + Splunk
   + Splunk Observability Cloud
   + Sumo Logic
   + Snowflake

1. Em **nome do fluxo do Firehose**, é possível usar o nome que o console gerar para você ou adicionar um fluxo do Firehose de sua escolha.