

Le traduzioni sono generate tramite traduzione automatica. In caso di conflitto tra il contenuto di una traduzione e la versione originale in Inglese, quest'ultima prevarrà.

# Scegli la fonte e la destinazione per il tuo stream Firehose
<a name="create-name"></a>

****

1. Aprire la console Firehose all'indirizzo. [https://console.aws.amazon.com/firehose/](https://console.aws.amazon.com/firehose/)

1. Scegli **Crea un flusso Firehose**. 

1. Nella pagina **Crea stream Firehose**, scegli una fonte per il tuo stream Firehose tra una delle seguenti opzioni.
   + **Direct PUT**: scegliete questa opzione per creare uno stream Firehose su cui le applicazioni di produzione scrivono direttamente. Di seguito è riportato un elenco di AWS servizi, agenti e servizi open source che si integrano con Direct PUT in Amazon Data Firehose. Questo elenco non è esaustivo e potrebbero esserci servizi aggiuntivi che possono essere utilizzati per inviare dati direttamente a Firehose.
     + AWS SDK
     + AWS Lambda
     + AWS CloudWatch Tronchi
     + AWS CloudWatch Eventi
     + AWS Flussi metrici su cloud
     + AWS IoT
     + AWS Eventbridge
     + Amazon Simple Email Service
     + Amazon SNS
     + AWS Registri ACL Web WAF
     + Gateway Amazon API: log di accesso
     + Amazon Pinpoint
     + Log di broker Amazon MSK
     + Log di query di risolutore Amazon Route 53
     + AWS Registri degli avvisi del Network Firewall
     + AWS Registri di flusso del Network Firewall
     + Amazon Elasticache Redis SLOWLOG
     + Kinesis Agent (Linux)
     + Kinesis Tap (Windows)
     + Fluentbit
     + Fluentd
     + Apache Nifi
     + Snowflake
   + **Amazon Kinesis Data** Streams: scegli questa opzione per configurare un flusso Firehose che utilizza un flusso di dati Kinesis come origine dati. È quindi possibile utilizzare Firehose per leggere facilmente i dati da un flusso di dati Kinesis esistente e caricarli nelle destinazioni. Per ulteriori informazioni sull'utilizzo di Kinesis Data Streams come origine dati[, consulta Invio di dati a un flusso Firehose con Kinesis](writing-with-kinesis-streams.md) Data Streams.
   + **Amazon MSK**: scegli questa opzione per configurare uno stream Firehose che utilizza Amazon MSK come origine dati. È quindi possibile utilizzare Firehose per leggere facilmente i dati da un cluster Amazon MSK esistente e caricarli in bucket S3 specifici. Per ulteriori informazioni, consulta [Invio di dati a uno stream Firehose con Amazon MSK](writing-with-msk.md).

1. Scegliete una destinazione per il vostro stream Firehose tra una delle seguenti destinazioni supportate da Firehose.
   +  OpenSearch Servizio Amazon
   + Amazon OpenSearch Serverless
   + Amazon Redshift
   + Amazon S3
   + Tabelle Apache Iceberg
   + Coralogix
   + Datadog
   + Dynatrace
   + Elastic
   + Endpoint HTTP
   + Honeycomb
   + Logic Monitor
   + Logz.io
   + MongoDB Cloud
   + New Relic
   + Splunk
   + Splunk Observability Cloud
   + Sumo Logic
   + Snowflake

1. Per **il nome dello stream Firehose**, puoi utilizzare il nome che la console genera per te o aggiungere uno stream Firehose a tua scelta.