Le traduzioni sono generate tramite traduzione automatica. In caso di conflitto tra il contenuto di una traduzione e la versione originale in Inglese, quest'ultima prevarrà.
Cos'è Amazon Amazon Data Firehose?
Amazon Data Firehose è un servizio completamente gestito per la distribuzione di dati in streaming
Per ulteriori informazioni sulle soluzioni per i AWS big data, consulta Big data su AWS
Scopri i concetti chiave
Quando inizi a utilizzare Amazon Data Firehose, è consigliabile cominciare a comprendere i seguenti concetti.
- Flussi Firehose
-
L'entità sottostante di Amazon Data Firehose. Utilizzi Amazon Data Firehose creando un flusso Firehose e inviando dati a tale flusso. Per ulteriori informazioni, consultare Tutorial: Creare uno stream Firehose dalla console e Inviare dati a uno stream Firehose.
- Registro
-
I dati di interesse che il produttore dei dati invia a un flusso Firehose. Un record può essere grande fino a 1.000 KB.
- Produttore di dati
-
I produttori inviano i record ai flussi Firehose. Ad esempio, un server Web che invia dati di log a un flusso Firehose è un produttore di dati. Puoi anche configurare il flusso Firehose per la lettura automatica dei dati da un flusso di dati Kinesis esistente e per il caricamento sulle destinazioni. Per ulteriori informazioni, consulta Inviare dati a uno stream Firehose.
- Dimensione e intervallo del buffer
-
Amazon Data Firehose effettua il buffering dei dati in streaming in entrata fino a determinate dimensioni o per un certo periodo di tempo prima di distribuirli alle destinazioni. Buffer Sizeè in MBs e lo è in pochi Buffer Interval secondi.
Comprendi il flusso di dati in Amazon Data Firehose
Per le destinazioni Amazon S3, i dati in streaming vengono distribuiti sul bucket S3. Se è abilitata la trasformazione dei dati, puoi scegliere di eseguire il backup dei dati di origine su un altro bucket Amazon S3.

Per le destinazioni Amazon Redshift, i dati in streaming vengono distribuiti prima sul bucket S3. Amazon Data Firehose invia quindi un comando Amazon COPY Redshift per caricare i dati dal bucket S3 al cluster Amazon Redshift. Se è abilitata la trasformazione dei dati, puoi scegliere di eseguire il backup dei dati di origine su un altro bucket Amazon S3.

Per le destinazioni del OpenSearch servizio, i dati in streaming vengono distribuiti sul cluster di OpenSearch servizio e se ne può eseguire contemporaneamente il backup sul bucket S3.

Per le destinazioni Splunk, i dati in streaming vengono distribuiti su Splunk e se ne può eseguire contemporaneamente il backup sul bucket S3.
