Definição de configurações do destino - Amazon Data Firehose

Definição de configurações do destino

Esta seção descreve as configurações que você deve definir para seu fluxo do Firehose com base no destino selecionado.

Definições de configurações de destino para o Amazon S3

Você deve especificar as configurações a seguir para usar o Amazon S3 como destino para seu fluxo do Firehose.

  • Insira valores para os seguintes campos.

    Bucket do S3

    Escolha um bucket do S3 do qual você seja proprietário; os dados em streaming serão entregues nesse bucket. É possível criar um novo bucket do S3 ou escolher um já existente.

    Novo delimitador de linha

    É possível configurar seu fluxo do Firehose para adicionar um novo delimitador de linha entre os registros nos objetos que são entregues ao Amazon S3. Para fazer isso, escolha Habilitado. Para não adicionar um novo delimitador de linha entre registros nos objetos que são entregues ao Amazon S3, escolha Desabilitado. Se você planeja usar o Athena para consultar objetos do S3 com registros agregados, habilite essa opção.

    Particionamento dinâmico

    Escolha Habilitado para habilitar e configurar o particionamento dinâmico.

    Desagregação de vários registros

    Esse é o processo de análise de todos os registros no fluxo do Firehose, com sua separação baseada em JSON válido ou no delimitador de nova linha especificado.

    Se você agregar vários eventos, logs ou registros em uma única chamada de API PutRecord e PutRecordBatch, ainda poderá habilitar e configurar o particionamento dinâmico. Com dados agregados, quando você habilita o particionamento dinâmico, o Amazon Data Firehose analisa os registros e procura vários objetos JSON válidos em cada chamada de API. Quando o fluxo do Firehose é configurado com o Kinesis Data Stream como fonte, você também pode usar a agregação integrada na Kinesis Producer Library (KPL). A funcionalidade de partição de dados é executada após a desagregação dos dados. Portanto, cada registro em cada chamada de API pode ser entregue a diferentes prefixos do Amazon S3. Você também pode aproveitar a integração da função do Lambda para realizar qualquer outra desagregação ou qualquer outra transformação antes da funcionalidade de particionamento de dados.

    Importante

    Se os dados estiverem agregados, o particionamento dinâmico só poderá ser aplicado após a desagregação de dados ser realizada. Portanto, se você habilitar o particionamento dinâmico para seus dados agregados, deverá escolher Habilitado para habilitar a desagregação de vários registros.

    O fluxo do Firehose realiza as etapas de processamento a seguir, nesta ordem: desagregação de KPL (protobuf), desagregação de JSON ou delimitador, processamento de Lambda, particionamento de dados, conversão de formato dos dados e entrega ao Amazon S3.

    Tipo de desagregação de vários registros

    Se você habilitou a desagregação de vários registros, deverá especificar o método a ser usado pelo Firehose para desagregar os dados. Use o menu suspenso para escolher JSON ou Delimitado.

    Análise em linha

    Esse é um dos mecanismos com suporte para o particionamento dinâmico dos dados vinculados ao Amazon S3. Para usar a análise em linha para fazer o particionamento dinâmico de dados, você deve especificar os parâmetros de registro de dados a serem usados como chaves de particionamento e fornecer um valor para cada chave de particionamento especificada. Escolha Habilitado para habilitar e configurar o particionamento em linha.

    Importante

    Se você especificou uma função do Lambda AWS nas etapas acima para transformar os registros da fonte, poderá usar essa função para particionar dinamicamente os dados vinculados ao S3 e ainda poderá criar as chaves de particionamento com análise em linha. Com o particionamento dinâmico, é possível usar a análise em linha ou a função do AWS Lambda para criar as chaves de particionamento. Ou é possível usar a análise em linha e a função do AWS Lambda ao mesmo tempo para criar as chaves de particionamento.

    Chaves de particionamento dinâmico

    É possível usar os campos Chave e Valor para especificar os parâmetros de registro de dados a serem usados como chaves de particionamento dinâmico e consultas jq para gerar os valores das chaves de particionamento dinâmico. O Firehose oferece suporte somente ao jq 1.6. É possível especificar até 50 chaves de particionamento dinâmico. Você deve inserir expressões jq válidas para os valores de chave de particionamento dinâmico para configurar com êxito o particionamento dinâmico para o fluxo do Firehose.

    Prefixo de bucket do S

    Ao habilitar e configurar o particionamento dinâmico, você deve especificar os prefixos de bucket do S3 para os quais o Amazon Data Firehose deverá entregar os dados particionados.

    Para que o particionamento dinâmico seja configurado corretamente, o número dos prefixos de bucket do S3 deve ser idêntico ao número de chaves de particionamento especificadas.

    É possível particionar os dados da fonte com análise em linha ou com a função do AWS Lambda especificada. Se você especificou uma função do AWS Lambda para criar chaves de particionamento para os dados da fonte, deverá digitar manualmente os valores dos prefixos de bucket do S3 usando o seguinte formato: "partitionKeyFromLambda:keyID". Se for usar análise em linha para especificar as chaves de particionamento para os dados da fonte, será possível digitar manualmente os valores de visualização de buckets do S3 usando o formato a seguir: "partitionKeyFromQuery:keyID" ou escolher o botão Aplicar chaves de particionamento dinâmico para usar os pares de chave/valor de particionamento dinâmico para gerar automaticamente os prefixos de bucket do S3. Ao particionar os dados com análise em linha ou com o AWS Lambda, você também pode usar os seguintes formulários de expressão no prefixo de bucket do S3: !{namespace:valor}, em que o namespace pode ser PartitionKeyFromQuery ou PartitionKeyFromLambda.

    Fuso horário do bucket do S3 e do prefixo de saída de erro do S3

    Escolha um fuso horário que você deseja usar para data e hora em prefixos personalizados para objetos do Amazon S3. Por padrão, o Firehose adiciona um prefixo de hora em UTC. É possível alterar o fuso horário usado nos prefixos do S3 se quiser usar um fuso horário diferente.

    Sugestões de armazenamento em buffer

    O Firehose armazena em buffer os dados recebidos antes de entregá-los ao destino especificado. O tamanho de buffer recomendado para o destino varia de acordo com o provedor de serviços.

    Compactação do S

    Escolha a compactação de dados GZIP, Snappy, Zip ou Snappy compatível com Hadoop ou nenhuma compactação de dados. As compactações Snappy, Zip e Snappy compatível com Hadoop não estão disponíveis para fluxos do Firehose com o Amazon Redshift como destino.

    Formato de extensão de arquivo do S3 (opcional)

    Especifique um formato de extensão de arquivo para objetos entregues ao bucket de destino do Amazon S3. Se você habilitar esse atributo, a extensão de arquivo especificada substituirá as extensões de arquivo padrão anexadas pelos atributos de conversão de formato de dados ou compactação do S3, como .parquet ou .gz. Verifique se você configurou a extensão de arquivo correta ao usar esse atributo com a conversão de formato de dados ou a compactação do S3. A extensão do arquivo deve começar com um ponto (.) e pode conter os caracteres permitidos: 0-9a-z!-_.*' (). A extensão do arquivo não pode exceder 128 caracteres.

    Criptografia do S

    O Firehose oferece suporte à criptografia do lado do servidor do Amazon S3 com o AWS Key Management Service (SSE-KMS) para criptografar os dados entregues no Amazon S3. É possível escolher usar o tipo de criptografia padrão especificado no bucket do S3 de destino ou criptografar com uma chave da lista de chaves do AWS KMS que você possui. Se você criptografar os dados com chaves do AWS KMS, poderá usar a chave gerenciada pela AWS padrão (aws/s3) ou uma chave gerenciada pelo cliente. Para obter mais informações, consulte Protecting Data Using Server-Side Encryption with AWS KMS-Managed Keys (SSE-KMS).

Definições de configurações de destino para tabelas do Apache Iceberg

O Firehose oferece suporte às tabelas do Apache Iceberg como destino em todas as Regiões da AWS, exceto regiões da China, AWS GovCloud (US) Regions e Ásia-Pacífico (Malásia).

Para obter mais informações sobre as tabelas do Apache Iceberg como seu destino, consulte Entrega de dados às tabelas do Apache Iceberg com o Amazon Data Firehose.

Definições de configurações de destino para o Amazon Redshift

Esta seção descreve as configurações para usar o Amazon Redshift como destino do seu fluxo do Firehose.

Escolha um dos procedimentos a seguir dependendo de você ter um cluster provisionado pelo Amazon Redshift ou um grupo de trabalho do Amazon Redshift Sem Servidor.

Cluster provisionado do Amazon Redshift

Esta seção descreve as configurações para usar o cluster provisionado do Amazon Redshift como destino do seu fluxo do Firehose.

  • Insira valores para os seguintes campos:

    Cluster

    O cluster do Amazon Redshift no qual os dados do bucket do S3 são copiados. Configure o cluster do Amazon Redshift para que esteja acessível publicamente e desbloqueie os endereços IP do Amazon Data Firehose IP. Para obter mais informações, consulte Conceder ao Firehose acesso a um destino do Amazon Redshift .

    Autenticação

    É possível optar por inserir o nome de usuário/senha diretamente ou recuperar o segredo do AWS Secrets Manager para acessar o cluster do Amazon Redshift.

    • Nome do usuário

      Especifique um usuário do Amazon Redshift que tenha permissões para acessar o cluster do Amazon Redshift. Esse usuário deve ter a permissão INSERT do Amazon Redshift para copiar dados do bucket do S3 no cluster do Amazon Redshift.

    • Senha

      Especifique a senha do usuário com permissões para acessar o cluster.

    • Segredo do

      Selecione um segredo no AWS Secrets Manager que contenha as credenciais para o cluster do Amazon Redshift. Se você não vir o segredo na lista suspensa, crie um no AWS Secrets Manager para suas credenciais do Amazon Redshift. Para obter mais informações, consulte Autenticação com o AWS Secrets Manager no Amazon Data Firehose.

    Banco de dados

    O banco de dados do Amazon Redshift no qual os dados são copiados.

    Tabela

    A tabela do Amazon Redshift no qual os dados são copiados.

    Colunas

    (Opcional) As colunas específicas da tabela na qual os dados serão copiados. Use essa opção se o número de colunas definidas nos objetos do Amazon S3 for menor que o número de colunas na tabela do Amazon Redshift.

    Destino intermediário do S

    O Firehose entrega os dados ao bucket do S3 primeiro e, em seguida, emite um comando COPY do Amazon Redshift para carregar os dados no cluster do Amazon Redshift. Especifique um bucket do S3 do qual você seja proprietário; os dados em streaming serão entregues nesse bucket. Crie um novo bucket do S3 ou escolha um bucket já existente do qual você seja proprietário.

    O Firehose não exclui os dados do bucket do S3 depois de carregá-los no cluster do Amazon Redshift. É possível gerenciar os dados no bucket do S3 usando uma configuração de ciclo de vida. Para obter mais informações, consulte Gerenciamento do ciclo de vida de objetos no Guia do usuário do Amazon Simple Storage Service.

    Prefixo de bucket intermediário do S

    (Opcional) Para usar o prefixo padrão para objetos do Amazon S3, deixe esta opção em branco. O Firehose usa automaticamente um prefixo no formato de hora UTC "YYYY/MM/dd/HH" para objetos entregues ao Amazon S3. É possível adicionar ao início deste prefixo. Para obter mais informações, consulte Configuração de formato de nome de objeto do Amazon S3.

    Opções do COPY

    Parâmetros que podem ser especificados no comando COPY do Amazon Redshift. Eles podem ser necessários para a configuração. Por exemplo, "GZIP" será necessário se a compactação de dados do Amazon S3 estiver habilitada. "REGION" será necessário se o bucket do S3 não estiver na mesma região da AWS que o cluster do Amazon Redshift. Para obter mais informações, consulte COPY no Guia do desenvolvedor de banco de dados do Amazon Redshift.

    COPY command

    O comando COPY do Amazon Redshift. Para obter mais informações, consulte COPY no Guia do desenvolvedor de banco de dados do Amazon Redshift.

    Período de novas tentativas

    Período (0 a 7.200 segundos) para o Firehose fazer nova tentativa se o comando COPY dos dados no cluster do Amazon Redshift falhar. O Firehose faz uma nova tentativa a cada 5 minutos, até que a o período de novas tentativas termine. Se você definir o período de novas tentativas como 0 (zero) segundos, o Firehose não fará novas tentativas após uma falha no comando COPY.

    Sugestões de armazenamento em buffer

    O Firehose armazena em buffer os dados recebidos antes de entregá-los ao destino especificado. O tamanho de buffer recomendado para o destino varia de acordo com o provedor de serviços.

    Compactação do S

    Escolha a compactação de dados GZIP, Snappy, Zip ou Snappy compatível com Hadoop ou nenhuma compactação de dados. As compactações Snappy, Zip e Snappy compatível com Hadoop não estão disponíveis para fluxos do Firehose com o Amazon Redshift como destino.

    Formato de extensão de arquivo do S3 (opcional)

    Formato de extensão de arquivo S3 (opcional): especifique um formato de extensão de arquivo para objetos entregues ao bucket de destino do Amazon S3. Se você habilitar esse atributo, a extensão de arquivo especificada substituirá as extensões de arquivo padrão anexadas pelos atributos de conversão de formato de dados ou compactação do S3, como .parquet ou .gz. Verifique se você configurou a extensão de arquivo correta ao usar esse atributo com a conversão de formato de dados ou a compactação do S3. A extensão do arquivo deve começar com um ponto (.) e pode conter os caracteres permitidos: 0-9a-z!-_.*' (). A extensão do arquivo não pode exceder 128 caracteres.

    Criptografia do S

    O Firehose oferece suporte à criptografia do lado do servidor do Amazon S3 com o AWS Key Management Service (SSE-KMS) para criptografar os dados entregues no Amazon S3. É possível escolher usar o tipo de criptografia padrão especificado no bucket do S3 de destino ou criptografar com uma chave da lista de chaves do AWS KMS que você possui. Se você criptografar os dados com chaves do AWS KMS, poderá usar a chave gerenciada pela AWS padrão (aws/s3) ou uma chave gerenciada pelo cliente. Para obter mais informações, consulte Protecting Data Using Server-Side Encryption with AWS KMS-Managed Keys (SSE-KMS).

Definições de configurações de destino para grupo de trabalho do Amazon Redshift sem servidor

Esta seção descreve as configurações para usar o grupo de trabalho do Amazon Redshift sem servidor como destino do fluxo do Firehose.

  • Insira valores para os seguintes campos:

    Workgroup name (Nome do grupo de trabalho

    O grupo de trabalho do Amazon Redshift Sem Servidor ou um grupo de trabalho do Amazon Redshift no qual os dados do bucket do S3 são copiados. Configure o grupo de trabalho do Amazon Redshift sem servidor para ser acessível publicamente e desbloquear os endereços IP do Firehose. Para obter mais informações, consulte a seção Conectar-se a uma instância do Amazon Redshift Sem Servidor acessível publicamente em Conectar-se ao Amazon Redshift Sem Servidor e também Conceder ao Firehose acesso a um destino do Amazon Redshift .

    Autenticação

    É possível optar por inserir o nome de usuário/senha diretamente ou recuperar o segredo do AWS Secrets Manager para acessar o grupo de trabalho do Amazon Redshift sem servidor.

    • Nome do usuário

      Especifique um usuário do Amazon Redshift com permissões para acessar o grupo de trabalho do Amazon Redshift sem servidor. Esse usuário deve ter a permissão INSERT do Amazon Redshift para copiar dados do bucket do S3 para o grupo de trabalho do Amazon Redshift Sem Servidor.

    • Senha

      Especifique a senha do usuário com permissões para acessar o grupo de trabalho do Amazon Redshift sem servidor.

    • Segredo do

      Selecione um segredo no AWS Secrets Manager que contenha as credenciais para o grupo de trabalho d Amazon Redshift sem servidor. Se você não vir o segredo na lista suspensa, crie um no AWS Secrets Manager para suas credenciais do Amazon Redshift. Para obter mais informações, consulte Autenticação com o AWS Secrets Manager no Amazon Data Firehose.

    Banco de dados

    O banco de dados do Amazon Redshift no qual os dados são copiados.

    Tabela

    A tabela do Amazon Redshift no qual os dados são copiados.

    Colunas

    (Opcional) As colunas específicas da tabela na qual os dados serão copiados. Use essa opção se o número de colunas definidas nos objetos do Amazon S3 for menor que o número de colunas na tabela do Amazon Redshift.

    Destino intermediário do S

    O Amazon Data Firehose entrega os dados ao bucket do S3 primeiro e, em seguida, emite um comando COPY do Amazon Redshift para carregar os dados no grupo de trabalho do Amazon Redshift sem servidor. Especifique um bucket do S3 do qual você seja proprietário; os dados em streaming serão entregues nesse bucket. Crie um novo bucket do S3 ou escolha um bucket já existente do qual você seja proprietário.

    O Firehose não exclui os dados do bucket do S3 depois de carregá-los no grupo de trabalho do Amazon Redshift sem servidor. É possível gerenciar os dados no bucket do S3 usando uma configuração de ciclo de vida. Para obter mais informações, consulte Gerenciamento do ciclo de vida de objetos no Guia do usuário do Amazon Simple Storage Service.

    Prefixo de bucket intermediário do S

    (Opcional) Para usar o prefixo padrão para objetos do Amazon S3, deixe esta opção em branco. O Firehose usa automaticamente um prefixo no formato de hora UTC "YYYY/MM/dd/HH" para objetos entregues ao Amazon S3. É possível adicionar ao início deste prefixo. Para obter mais informações, consulte Configuração de formato de nome de objeto do Amazon S3.

    Opções do COPY

    Parâmetros que podem ser especificados no comando COPY do Amazon Redshift. Eles podem ser necessários para a configuração. Por exemplo, "GZIP" será necessário se a compactação de dados do Amazon S3 estiver habilitada. "REGION" será necessário se o bucket do S3 não estiver na mesma região da AWS que o grupo de trabalho do Amazon Redshift Sem Servidor. Para obter mais informações, consulte COPY no Guia do desenvolvedor de banco de dados do Amazon Redshift.

    COPY command

    O comando COPY do Amazon Redshift. Para obter mais informações, consulte COPY no Guia do desenvolvedor de banco de dados do Amazon Redshift.

    Período de novas tentativas

    Período (0 a 7.200 segundos) para o Firehose fazer nova tentativa se o comando COPY dos dados no grupo de trabalho do Amazon Redshift sem servidor falhar. O Firehose faz uma nova tentativa a cada 5 minutos, até que a o período de novas tentativas termine. Se você definir o período de novas tentativas como 0 (zero) segundos, o Firehose não fará novas tentativas após uma falha no comando COPY.

    Sugestões de armazenamento em buffer

    O Firehose armazena em buffer os dados recebidos antes de entregá-los ao destino especificado. O tamanho de buffer recomendado para o destino varia de acordo com o provedor de serviços.

    Compactação do S

    Escolha a compactação de dados GZIP, Snappy, Zip ou Snappy compatível com Hadoop ou nenhuma compactação de dados. As compactações Snappy, Zip e Snappy compatível com Hadoop não estão disponíveis para fluxos do Firehose com o Amazon Redshift como destino.

    Formato de extensão de arquivo do S3 (opcional)

    Formato de extensão de arquivo S3 (opcional): especifique um formato de extensão de arquivo para objetos entregues ao bucket de destino do Amazon S3. Se você habilitar esse atributo, a extensão de arquivo especificada substituirá as extensões de arquivo padrão anexadas pelos atributos de conversão de formato de dados ou compactação do S3, como .parquet ou .gz. Verifique se você configurou a extensão de arquivo correta ao usar esse atributo com a conversão de formato de dados ou a compactação do S3. A extensão do arquivo deve começar com um ponto (.) e pode conter os caracteres permitidos: 0-9a-z!-_.*' (). A extensão do arquivo não pode exceder 128 caracteres.

    Criptografia do S

    O Firehose oferece suporte à criptografia do lado do servidor do Amazon S3 com o AWS Key Management Service (SSE-KMS) para criptografar os dados entregues no Amazon S3. É possível escolher usar o tipo de criptografia padrão especificado no bucket do S3 de destino ou criptografar com uma chave da lista de chaves do AWS KMS que você possui. Se você criptografar os dados com chaves do AWS KMS, poderá usar a chave gerenciada pela AWS padrão (aws/s3) ou uma chave gerenciada pelo cliente. Para obter mais informações, consulte Protecting Data Using Server-Side Encryption with AWS KMS-Managed Keys (SSE-KMS).

Definições de configurações de destino para o OpenSearch Service

O Firehose oferece suporte ao Elasticsearch versões 1.5, 2.3, 5.1, 5.3, 5.5, 5.6, bem como todas as versões 6.*, 7.* e 8.*. O Firehose oferece suporte ao Amazon OpenSearch Service 2.x até 2.11.

Esta seção descreve as opções para usar o OpenSearch Service como destino.

  • Insira valores para os seguintes campos:

    Domínio do OpenSearch Service

    O domínio do OpenSearch Service ao qual os dados serão entregues.

    Índice

    O nome do índice do OpenSearch Service a ser usado ao indexar dados no cluster do OpenSearch Service.

    Index rotation

    Escolha se deve feito o rodízio de índices do OpenSearch Service e com que frequência. Se o rodízio de índices estiver habilitado, o Amazon Data Firehose adicionará o carimbo de data/hora correspondente ao nome de índice especificado e fará o rodízio. Para obter mais informações, consulte Configuração de rotação de índice para o OpenSearch Service.

    Tipo

    O nome do tipo de OpenSearch Service a ser usado ao indexar dados no cluster do OpenSearch Service. Para o Elasticsearch 7.x e o OpenSearch 1.x, só pode haver um tipo por índice. Se você tentar especificar um novo tipo para um índice existente que já tem outro tipo, o Firehose retornará um erro durante o runtime.

    Para o Elasticsearch 7.x, deixe esse campo vazio.

    Período de novas tentativas

    Período durante o qual o Firehose fará novas tentativas se uma solicitação de índice ao OpenSearch falhar. Para o período de novas tentativas, é possível definir qualquer valor entre 0 e 7.200 segundos. O padrão para a duração da nova tentativa é de 300 segundos. O Firehose fará uma nova tentativa várias vezes, com um recuo exponencial até que o período de novas tentativas expire.

    Depois que o período de novas tentativas expirar, o Firehose entregará os dados para a fila de mensagens não entregues (DLQ), um bucket de erros S3 configurado. Para dados entregues ao DLQ, você precisa redirecionar os dados do bucket de erros do S3 configurado para o destino do OpenSearch.

    Se você quiser impedir que o fluxo do Firehose entregue dados à DLQ devido ao tempo de inatividade ou à manutenção dos clusters do OpenSearch, é possível configurar a duração da nova tentativa para um valor maior em segundos. É possível aumentar o valor da duração da nova tentativa acima para 7.200 segundos entrando em contato com o suporte da AWS.

    Tipo DocumentID

    Indica o método para configurar o ID do documento. Os métodos com suporte são ID do documento gerado pelo Firehose e ID do documento gerado pelo OpenSearch Service. ID do documento gerado pelo Firehose é a opção padrão quando o valor do ID do documento não está definido. O ID do documento gerado pelo OpenSearch Service é a opção recomendada porque oferece suporte a operações de gravação intensiva, inclusive análise de log e observabilidade, consumindo menos recursos de CPU no domínio do OpenSearch Service e, portanto, resultando em melhor performance.

    Destination VPC connectivity (Conectividade da VPC de destino

    Se o domínio do OpenSearch Service estiver em uma VPC privada, use esta seção para especificar essa VPC. Especifique também as sub-redes e os subgrupos que deseja que o Amazon Data Firehose use ao enviar dados para o domínio do OpenSearch Service. É possível usar os mesmos grupos de segurança que o domínio do OpenSearch Service está usando. Se você especificar outros grupos de segurança, certifique-se de que permitam tráfego HTTPS de saída para o grupo de segurança do domínio do OpenSearch Service. Certifique-se também de que o grupo de segurança do domínio do OpenSearch Service permita o tráfego de HTTPS dos grupos de segurança que você especificou ao configurar seu fluxo do Firehose. Se você usar o mesmo grupo de segurança para o fluxo do Firehose e para o domínio do OpenSearch Service, certifique-se de que a regra de entrada do grupo de segurança permita tráfego de HTTPS. Para obter mais informações sobre regras de grupo de segurança, consulte Regras de grupo de segurança na documentação da Amazon VPC.

    Importante

    Ao especificar sub-redes para entregar dados ao destino em uma VPC privada, verifique se você tem um número suficiente de endereços IP livres nas sub-redes escolhidas. Se não houver endereços IP gratuitos disponíveis em uma sub-rede especificada, o Firehose não poderá criar ou adicionar ENIs para a entrega de dados na VPC privada, e a entrega será degradada ou falhará.

    Sugestões de buffer

    O Amazon Data Firehose armazena em buffer os dados recebidos antes de entregá-los ao destino especificado. O tamanho de buffer recomendado para o destino varia de acordo com o provedor de serviços.

Definições de configurações de destino para o OpenSearch sem servidor

Esta seção descreve as opções para usar o OpenSearch Sem Servidor como destino.

  • Insira valores para os seguintes campos:

    Coleção do OpenSearch Sem Servidor

    O endpoint para um grupo de índices OpenSearch Sem Servidor ao qual os dados são entregues.

    Índice

    O nome do índice do OpenSearch Sem Servidor a ser usado ao indexar dados para a coleção OpenSearch Sem Servidor.

    Destination VPC connectivity (Conectividade da VPC de destino

    Se a coleção do OpenSearch Sem Servidor estiver em uma VPC privada, use esta seção para especificar essa VPC. Especifique também as sub-redes e subgrupos que você deseja que o Amazon Data Firehose use quando enviar dados para a coleção do OpenSearch sem servidor.

    Importante

    Ao especificar sub-redes para entregar dados ao destino em uma VPC privada, verifique se você tem um número suficiente de endereços IP livres nas sub-redes escolhidas. Se não houver endereços IP gratuitos disponíveis em uma sub-rede especificada, o Firehose não poderá criar ou adicionar ENIs para a entrega de dados na VPC privada, e a entrega será degradada ou falhará.

    Período de novas tentativas

    Período durante o qual o Firehose fará novas tentativas se uma solicitação de índice ao OpenSearch sem servidor falhar. Para o período de novas tentativas, é possível definir qualquer valor entre 0 e 7.200 segundos. O padrão para a duração da nova tentativa é de 300 segundos. O Firehose fará uma nova tentativa várias vezes, com um recuo exponencial até que o período de novas tentativas expire.

    Depois que o período de novas tentativas expirar, o Firehose entregará os dados para a fila de mensagens não entregues (DLQ), um bucket de erros S3 configurado. Para dados entregues ao DLQ, você precisa redirecionar os dados do bucket de erros do S3 configurado para o destino do OpenSearch sem servidor.

    Se você quiser impedir que o fluxo do Firehose entregue dados à DLQ devido ao tempo de inatividade ou à manutenção dos clusters do OpenSearch sem servidor, é possível configurar o período da nova tentativa para um valor maior em segundos. É possível aumentar o valor da duração da nova tentativa acima para 7.200 segundos entrando em contato com o suporte da AWS.

    Sugestões de buffer

    O Amazon Data Firehose armazena em buffer os dados recebidos antes de entregá-los ao destino especificado. O tamanho de buffer recomendado para o destino varia de acordo com o provedor de serviços.

Definição das configurações de destino para Endpoint de HTTP

Esta seção descreve as opções para usar o endpoint de HTTP como destino.

Importante

Se você escolher um endpoint de HTTP como destino, revise e siga as instruções em Noções básicas das especificações de solicitação e resposta de entrega de endpoint de HTTP.

  • Forneça os valores para os seguintes campos:

    Nome do endpoint de HTTP - opcional

    Especifique um nome de usuário amigável para o endpoint de HTTP. Por exemplo, My HTTP Endpoint Destination.

    URL do endpoint de HTTP

    Especifique o URL para o endpoint de HTTP no formato a seguir: https://xyz.httpendpoint.com. A origem deve ser um URL HTTPS.

    Autenticação

    É possível optar por inserir a chave de acesso diretamente ou recuperar o segredo do AWS Secrets Manager para acessar o endpoint de HTTP.

    • (Opcional) Chave de acesso

      Entre em contato com o proprietário do endpoint se você precisar obter a chave de acesso para permitir a entrega de dados do Firehose ao endpoint.

    • Segredo do

      Selecione um segredo no AWS Secrets Manager que contenha a chave de acesso para o endpoint de HTTP. Se você não vir o segredo na lista suspensa, crie um no AWS Secrets Manager para a chave de acesso. Para obter mais informações, consulte Autenticação com o AWS Secrets Manager no Amazon Data Firehose.

    Codificação de conteúdo

    O Amazon Data Firehose usa a codificação de conteúdo para compactar o corpo de uma solicitação antes de enviá-la ao destino. Escolha GZIP ou Desabilitado para habilitar/desabilitar a codificação de conteúdo da solicitação.

    Período de novas tentativas

    Especifique por quanto tempo o Amazon Data Firehose fará novas tentativas de enviar os dados ao endpoint de HTTP selecionado.

    Depois de enviar os dados, o Amazon Data Firehose primeiro esperará por uma confirmação do endpoint de HTTP. Se ocorrer um erro ou se a confirmação não chegar dentro do tempo limite para confirmação, o Amazon Data Firehose iniciará o contador do período de novas tentativas. Ele continuará tentando novamente até a duração da nova tentativa expirar. Depois disso, o Amazon Data Firehose considerará que houve uma falha de entrega de dados e fará o backup dos dados no bucket do Amazon S3.

    Toda vez que o Amazon Data Firehose envia dados para o endpoint de HTTP (seja a tentativa inicial ou uma nova tentativa), ele reinicia o contador de tempo limite para confirmação e aguarda uma confirmação do endpoint de HTTP.

    Mesmo que o período de novas tentativas expire, o Amazon Data Firehose ainda aguardará a confirmação até recebê-la ou até que o período de tempo limite para confirmação seja atingido. Se o tempo limite para confirmação expirar, o Amazon Data Firehose determinará se ainda resta algum tempo no contador de novas tentativas. Se houver tempo restante, ele tentará executar novamente e repetirá a lógica até receber um reconhecimento ou determinará que o tempo de tentar novamente expirou.

    Se você não quiser que o Amazon Data Firehose tente enviar os dados novamente, defina esse valor como 0.

    Parâmetros: opcional

    O Amazon Data Firehose inclui esses pares de valores-chave em toda chamada HTTP. Esses parâmetros ajudam a identificar e organizar os destinos.

    Sugestões de armazenamento em buffer

    O Amazon Data Firehose armazena em buffer os dados recebidos antes de entregá-los ao destino especificado. O tamanho de buffer recomendado para o destino varia de acordo com o provedor de serviços.

    Importante

    Para destinos de endpoint de HTTP, se você estiver vendo códigos de resposta 413 do endpoint de destino no CloudWatch Logs, reduza o tamanho da sugestão de buffer no seu fluxo do Firehose e tente novamente.

Definições de configurações de destino para o Datadog

Esta seção descreve as opções para usar o Datadog como destino. Para obter mais informações sobre o Datadog, consulte https://docs.datadoghq.com/integrations/amazon_web_services/.

  • Forneça os valores para os campos a seguir.

    URL do endpoint de HTTP

    Escolha para onde você deseja enviar dados dentre uma das opções a seguir no menu suspenso.

    • Logs do Datadog - EUA1

    • Logs do Datadog - EUA3

    • Logs do Datadog - EUA5

    • Logs do Datadog - AP1

    • Logs do Datadog: EU

    • Logs do Datadog: GOV

    • Métricas do Datadog - EUA

    • Métricas do Datadog - EUA5

    • Métricas do Datadog - AP1

    • Métricas do Datadog: EU

    • Configurações do Datadog - EUA1

    • Configurações do Datadog - EUA3

    • Configurações do Datadog - EUA5

    • Configurações do Datadog - AP1

    • Configurações do Datadog - UE

    • Configurações do Datadog - GOV EUA

    Autenticação

    É possível optar por inserir a chave da API diretamente ou recuperar o segredo do AWS Secrets Manager para acessar o Datadog.

    • Chave da API

      Entre em contato com o Datadog para obter a chave de API necessária para permitir a entrega de dados do Firehose a esse endpoint.

    • Segredo do

      Selecione um segredo do AWS Secrets Manager que contenha a chave da API do Datadog. Se você não vir o segredo na lista suspensa, crie um no AWS Secrets Manager. Para obter mais informações, consulte Autenticação com o AWS Secrets Manager no Amazon Data Firehose.

    Codificação de conteúdo

    O Amazon Data Firehose usa a codificação de conteúdo para compactar o corpo de uma solicitação antes de enviá-la ao destino. Escolha GZIP ou Desabilitado para habilitar/desabilitar a codificação de conteúdo da solicitação.

    Período de novas tentativas

    Especifique por quanto tempo o Amazon Data Firehose fará novas tentativas de enviar os dados ao endpoint de HTTP selecionado.

    Depois de enviar os dados, o Amazon Data Firehose primeiro esperará por uma confirmação do endpoint de HTTP. Se ocorrer um erro ou se a confirmação não chegar dentro do tempo limite para confirmação, o Amazon Data Firehose iniciará o contador do período de novas tentativas. Ele continuará tentando novamente até a duração da nova tentativa expirar. Depois disso, o Amazon Data Firehose considerará que houve uma falha de entrega de dados e fará o backup dos dados no bucket do Amazon S3.

    Toda vez que o Amazon Data Firehose envia dados para o endpoint de HTTP (seja a tentativa inicial ou uma nova tentativa), ele reinicia o contador de tempo limite para confirmação e aguarda uma confirmação do endpoint de HTTP.

    Mesmo que o período de novas tentativas expire, o Amazon Data Firehose ainda aguardará a confirmação até recebê-la ou até que o período de tempo limite para confirmação seja atingido. Se o tempo limite para confirmação expirar, o Amazon Data Firehose determinará se ainda resta algum tempo no contador de novas tentativas. Se houver tempo restante, ele tentará executar novamente e repetirá a lógica até receber um reconhecimento ou determinará que o tempo de tentar novamente expirou.

    Se você não quiser que o Amazon Data Firehose tente enviar os dados novamente, defina esse valor como 0.

    Parâmetros: opcional

    O Amazon Data Firehose inclui esses pares de valores-chave em toda chamada HTTP. Esses parâmetros ajudam a identificar e organizar os destinos.

    Sugestões de armazenamento em buffer

    O Amazon Data Firehose armazena em buffer os dados recebidos antes de entregá-los ao destino especificado. O tamanho de buffer recomendado para o destino varia de acordo com o provedor de serviços.

Definições de configurações de destino para o Honeycomb

Esta seção descreve as opções para usar o Honeycomb como destino. Para obter mais informações sobre o Honeycomb, consulte https://docs.honeycomb.io/getting-data-in/metrics/aws-cloudwatch-metrics/.

  • Forneça os valores para os seguintes campos:

    Endpoint do Honeycomb Kinesis

    Especifique o URL do endpoint de HTTP no formato a seguir: hhttps://api.honeycomb.io/1/kinesis_events/{{dataset}}

    Autenticação

    É possível optar por inserir a chave da API diretamente ou recuperar o segredo do AWS Secrets Manager para acessar o Honeycomb.

    • Chave da API

      Entre em contato com o Honeycomb para obter a chave de API necessária para permitir a entrega de dados do Firehose a esse endpoint.

    • Segredo do

      Selecione um segredo do AWS Secrets Manager que contenha a chave da API do Honeycomb. Se você não vir o segredo na lista suspensa, crie um no AWS Secrets Manager. Para obter mais informações, consulte Autenticação com o AWS Secrets Manager no Amazon Data Firehose.

    Codificação de conteúdo

    O Amazon Data Firehose usa a codificação de conteúdo para compactar o corpo de uma solicitação antes de enviá-la ao destino. Escolha GZIP para habilitar a codificação de conteúdo da solicitação. Essa é a opção recomendada quando o destino é o Honeycomb.

    Período de novas tentativas

    Especifique por quanto tempo o Amazon Data Firehose fará novas tentativas de enviar os dados ao endpoint de HTTP selecionado.

    Depois de enviar os dados, o Amazon Data Firehose primeiro esperará por uma confirmação do endpoint de HTTP. Se ocorrer um erro ou se a confirmação não chegar dentro do tempo limite para confirmação, o Amazon Data Firehose iniciará o contador do período de novas tentativas. Ele continuará tentando novamente até a duração da nova tentativa expirar. Depois disso, o Amazon Data Firehose considerará que houve uma falha de entrega de dados e fará o backup dos dados no bucket do Amazon S3.

    Toda vez que o Amazon Data Firehose envia dados para o endpoint de HTTP (seja a tentativa inicial ou uma nova tentativa), ele reinicia o contador de tempo limite para confirmação e aguarda uma confirmação do endpoint de HTTP.

    Mesmo que o período de novas tentativas expire, o Amazon Data Firehose ainda aguardará a confirmação até recebê-la ou até que o período de tempo limite para confirmação seja atingido. Se o tempo limite para confirmação expirar, o Amazon Data Firehose determinará se ainda resta algum tempo no contador de novas tentativas. Se houver tempo restante, ele tentará executar novamente e repetirá a lógica até receber um reconhecimento ou determinará que o tempo de tentar novamente expirou.

    Se você não quiser que o Amazon Data Firehose tente enviar os dados novamente, defina esse valor como 0.

    Parâmetros: opcional

    O Amazon Data Firehose inclui esses pares de valores-chave em toda chamada HTTP. Esses parâmetros ajudam a identificar e organizar os destinos.

    Sugestões de armazenamento em buffer

    O Amazon Data Firehose armazena em buffer os dados recebidos antes de entregá-los ao destino especificado. O tamanho de buffer recomendado para o destino varia de acordo com o provedor de serviços.

Definição de as configurações de destino para o Coralogix

Esta seção descreve as opções para usar o Coralogix como destino. Para obter mais informações sobre o Coralogix, consulte Conceitos básicos do Coralogix.

  • Forneça os valores para os seguintes campos:

    URL do endpoint de HTTP

    Escolha o URL do endpoint de HTTP entre as opções a seguir no menu suspenso:

    • Coralogix - EUA

    • Coralogix - SINGAPURA

    • Coralogix - IRLANDA

    • Coralogix - ÍNDIA

    • Coralogix - ESTOCOLMO

    Autenticação

    É possível optar por inserir a chave privada diretamente ou recuperar o segredo do AWS Secrets Manager para acessar o Coralogix.

    • Chave privada

      Entre em contato com o Coralogix para obter a chave privada necessária para permitir a entrega de dados do Firehose a esse endpoint.

    • Segredo do

      Selecione um segredo do AWS Secrets Manager que contenha a chave privada do Coralogix. Se você não vir o segredo na lista suspensa, crie um no AWS Secrets Manager. Para obter mais informações, consulte Autenticação com o AWS Secrets Manager no Amazon Data Firehose.

    Codificação de conteúdo

    O Amazon Data Firehose usa a codificação de conteúdo para compactar o corpo de uma solicitação antes de enviá-la ao destino. Escolha GZIP para habilitar a codificação de conteúdo da solicitação. Essa é a opção recomendada quando o destino é o Coralogix.

    Período de novas tentativas

    Especifique por quanto tempo o Amazon Data Firehose fará novas tentativas de enviar os dados ao endpoint de HTTP selecionado.

    Depois de enviar os dados, o Amazon Data Firehose primeiro esperará por uma confirmação do endpoint de HTTP. Se ocorrer um erro ou se a confirmação não chegar dentro do tempo limite para confirmação, o Amazon Data Firehose iniciará o contador do período de novas tentativas. Ele continuará tentando novamente até a duração da nova tentativa expirar. Depois disso, o Amazon Data Firehose considerará que houve uma falha de entrega de dados e fará o backup dos dados no bucket do Amazon S3.

    Toda vez que o Amazon Data Firehose envia dados para o endpoint de HTTP (seja a tentativa inicial ou uma nova tentativa), ele reinicia o contador de tempo limite para confirmação e aguarda uma confirmação do endpoint de HTTP.

    Mesmo que o período de novas tentativas expire, o Amazon Data Firehose ainda aguardará a confirmação até recebê-la ou até que o período de tempo limite para confirmação seja atingido. Se o tempo limite para confirmação expirar, o Amazon Data Firehose determinará se ainda resta algum tempo no contador de novas tentativas. Se houver tempo restante, ele tentará executar novamente e repetirá a lógica até receber um reconhecimento ou determinará que o tempo de tentar novamente expirou.

    Se você não quiser que o Amazon Data Firehose tente enviar os dados novamente, defina esse valor como 0.

    Parâmetros: opcional

    O Amazon Data Firehose inclui esses pares de valores-chave em toda chamada HTTP. Esses parâmetros ajudam a identificar e organizar os destinos.

    • applicationName: o ambiente em que você está executando o Data Firehose

    • subsystemName: o nome da integração do Data Firehose

    • computerName: o nome do fluxo do Firehose em uso

    Sugestões de armazenamento em buffer

    O Amazon Data Firehose armazena em buffer os dados recebidos antes de entregá-los ao destino especificado. O tamanho de buffer recomendado para o destino varia com base no provedor de serviços.

Definições de configurações de destino para o Dynatrace

Esta seção descreve as opções para usar o Dynatrace como destino. Para obter mais informações, consulte https://www.dynatrace.com/support/help/technology-support/cloud-platforms/amazon-web-services/integrations/cloudwatch-metric-streams/.

  • Escolha as opções para usar o Dynatrace como destino de seu fluxo do Firehose.

    Tipo de ingestão

    Escolha se você deseja entregar Métricas ou Logs (padrão) no Dynatrace para análise e processamento adicionais.

    URL do endpoint de HTTP

    Escolha o URL do endpoint de HTTP (Dynatrace EUA, Dynatrace UE ou Dynatrace Global) no menu suspenso.

    Autenticação

    É possível optar por inserir o token da API diretamente ou recuperar o segredo do AWS Secrets Manager para acessar o Dynatrace.

    URL da API

    Forneça o URL da API do ambiente do Dynatrace.

    Codificação de conteúdo

    Escolha se você deseja habilitar a codificação de conteúdo para compactar o corpo da solicitação. O Amazon Data Firehose usa a codificação de conteúdo para compactar o corpo de uma solicitação antes de enviá-la ao destino. Quando habilitado, o conteúdo será compactado no formato GZIP.

    Período de novas tentativas

    Especifique por quanto tempo o Firehose faz novas tentativas de enviar os dados ao endpoint de HTTP selecionado.

    Depois de enviar os dados, o Firehose primeiro esperará por uma confirmação do endpoint de HTTP. Se ocorrer um erro ou se a confirmação não chegar dentro do tempo limite de confirmação, o Firehose iniciará contador do período de novas tentativas. Ele continuará tentando novamente até a duração da nova tentativa expirar. Depois disso, o Firehose considerará que houve uma falha de entrega de dados e fará o backup dos dados no bucket do Amazon S3.

    Toda vez que o Firehose envia dados para o endpoint de HTTP, seja a tentativa inicial ou uma nova tentativa, ele reinicia o contador de tempo limite para confirmação e aguarda uma confirmação do endpoint de HTTP.

    Mesmo que o período de novas tentativas expire, o Firehose ainda aguardará a confirmação até recebê-la ou até que o tempo limite de espera de confirmação seja atingido. Se o tempo limite para confirmação expirar, o Firehose determinará se ainda resta algum tempo no contador de novas tentativas. Se houver tempo restante, ele tentará executar novamente e repetirá a lógica até receber um reconhecimento ou determinará que o tempo de tentar novamente expirou.

    Se você não quiser que o Firehose tente enviar os dados novamente, defina esse valor como 0.

    Parâmetros: opcional

    O Amazon Data Firehose inclui esses pares de valores-chave em toda chamada HTTP. Esses parâmetros ajudam a identificar e organizar os destinos.

    Sugestões de armazenamento em buffer

    O Amazon Data Firehose armazena em buffer os dados recebidos antes de entregá-los ao destino especificado. As sugestões de buffer incluem o tamanho e o intervalo do buffer para seus fluxos. O tamanho de buffer recomendado para o destino varia de acordo com o provedor de serviços.

Definições de configurações de destino para o LogicMonitor

Esta seção descreve as opções para usar o LogicMonitor como destino. Para obter mais informações, consulte https://www.logicmonitor.com.

  • Forneça os valores para os seguintes campos:

    URL do endpoint de HTTP

    Especifique o URL para o endpoint de HTTP no formato a seguir.

    https://ACCOUNT.logicmonitor.com
    Autenticação

    É possível optar por inserir a chave da API diretamente ou recuperar o segredo do AWS Secrets Manager para acessar o LogicMonitor.

    • Chave da API

      Entre em contato com o LogicMonitor para obter a chave de API necessária para permitir a entrega de dados do Firehose a esse endpoint.

    • Segredo do

      Selecione um segredo do AWS Secrets Manager que contenha a chave da API do LogicMonitor. Se você não vir o segredo na lista suspensa, crie um no AWS Secrets Manager. Para obter mais informações, consulte Autenticação com o AWS Secrets Manager no Amazon Data Firehose.

    Codificação de conteúdo

    O Amazon Data Firehose usa a codificação de conteúdo para compactar o corpo de uma solicitação antes de enviá-la ao destino. Escolha GZIP ou Desabilitado para habilitar/desabilitar a codificação de conteúdo da solicitação.

    Período de novas tentativas

    Especifique por quanto tempo o Amazon Data Firehose fará novas tentativas de enviar os dados ao endpoint de HTTP selecionado.

    Depois de enviar os dados, o Amazon Data Firehose primeiro esperará por uma confirmação do endpoint de HTTP. Se ocorrer um erro ou se a confirmação não chegar dentro do tempo limite para confirmação, o Amazon Data Firehose iniciará o contador do período de novas tentativas. Ele continuará tentando novamente até a duração da nova tentativa expirar. Depois disso, o Amazon Data Firehose considerará que houve uma falha de entrega de dados e fará o backup dos dados no bucket do Amazon S3.

    Toda vez que o Amazon Data Firehose envia dados para o endpoint de HTTP (seja a tentativa inicial ou uma nova tentativa), ele reinicia o contador de tempo limite para confirmação e aguarda uma confirmação do endpoint de HTTP.

    Mesmo que o período de novas tentativas expire, o Amazon Data Firehose ainda aguardará a confirmação até recebê-la ou até que o período de tempo limite para confirmação seja atingido. Se o tempo limite para confirmação expirar, o Amazon Data Firehose determinará se ainda resta algum tempo no contador de novas tentativas. Se houver tempo restante, ele tentará executar novamente e repetirá a lógica até receber um reconhecimento ou determinará que o tempo de tentar novamente expirou.

    Se você não quiser que o Amazon Data Firehose tente enviar os dados novamente, defina esse valor como 0.

    Parâmetros: opcional

    O Amazon Data Firehose inclui esses pares de valores-chave em toda chamada HTTP. Esses parâmetros ajudam a identificar e organizar os destinos.

    Sugestões de armazenamento em buffer

    O Amazon Data Firehose armazena em buffer os dados recebidos antes de entregá-los ao destino especificado. O tamanho de buffer recomendado para o destino varia de acordo com o provedor de serviços.

Definição das configurações de destino para o Logz.io

Esta seção descreve as opções para usar o Logz.io como destino. Para obter mais informações, consulte https://logz.io/.

nota

Na região da Europa (Milão), não há suporte para o Logz.io como destino do Amazon Data Firehose.

  • Forneça os valores para os seguintes campos:

    URL do endpoint de HTTP

    Especifique o URL para o endpoint de HTTP no formato a seguir. A origem deve ser um URL HTTPS.

    https://listener-aws-metrics-stream-<region>.logz.io/

    Por exemplo

    https://listener-aws-metrics-stream-us.logz.io/
    Autenticação

    É possível optar por inserir o token de envio diretamente ou recuperar o segredo do AWS Secrets Manager para acessar o Logz.io.

    • Token de envio

      Entre em contato com o Logz.io obter o token de envio necessário para permitir a entrega de dados do Firehose a esse endpoint.

    • Segredo do

      Selecione um segredo do AWS Secrets Manager que contenha o token de envio para o Logz.io. Se você não vir o segredo na lista suspensa, crie um no AWS Secrets Manager. Para obter mais informações, consulte Autenticação com o AWS Secrets Manager no Amazon Data Firehose.

    Período de novas tentativas

    Especifique por quanto tempo o Amazon Data Firehose fará novas tentativas de enviar os dados ao Logz.io.

    Depois de enviar os dados, o Amazon Data Firehose primeiro esperará por uma confirmação do endpoint de HTTP. Se ocorrer um erro ou se a confirmação não chegar dentro do tempo limite para confirmação, o Amazon Data Firehose iniciará o contador do período de novas tentativas. Ele continuará tentando novamente até a duração da nova tentativa expirar. Depois disso, o Amazon Data Firehose considerará que houve uma falha de entrega de dados e fará o backup dos dados no bucket do Amazon S3.

    Toda vez que o Amazon Data Firehose envia dados para o endpoint de HTTP (seja a tentativa inicial ou uma nova tentativa), ele reinicia o contador de tempo limite para confirmação e aguarda uma confirmação do endpoint de HTTP.

    Mesmo que o período de novas tentativas expire, o Amazon Data Firehose ainda aguardará a confirmação até recebê-la ou até que o período de tempo limite para confirmação seja atingido. Se o tempo limite para confirmação expirar, o Amazon Data Firehose determinará se ainda resta algum tempo no contador de novas tentativas. Se houver tempo restante, ele tentará executar novamente e repetirá a lógica até receber um reconhecimento ou determinará que o tempo de tentar novamente expirou.

    Se você não quiser que o Amazon Data Firehose tente enviar os dados novamente, defina esse valor como 0.

    Parâmetros: opcional

    O Amazon Data Firehose inclui esses pares de valores-chave em toda chamada HTTP. Esses parâmetros ajudam a identificar e organizar os destinos.

    Sugestões de armazenamento em buffer

    O Amazon Data Firehose armazena em buffer os dados recebidos antes de entregá-los ao destino especificado. O tamanho de buffer recomendado para o destino varia de acordo com o provedor de serviços.

Definições de configurações de destino para o MongoDB Atlas

Esta seção descreve as opções para usar o MongoDB Atlas como destino. Para ter mais informações, consulte MongoDB Atlas na Amazon Web Services.

  • Forneça os valores para os seguintes campos:

    URL do API Gateway

    Especifique o URL para o endpoint de HTTP no formato a seguir.

    https://xxxxx.execute-api.region.amazonaws.com/stage

    A origem deve ser um URL HTTPS.

    Autenticação

    É possível optar por inserir a chave da API diretamente ou recuperar o segredo do AWS Secrets Manager para acessar o MongoDB Atlas.

    • Chave da API

      Siga as instruções do MongoDB Atlas na Amazon Web Services para obter o APIKeyValue necessário para permitir a entrega de dados do Firehose a esse endpoint.

    • Segredo do

      Selecione um segredo do AWS Secrets Manager que contenha a chave API para o API Gateway apoiado pela interação do Lambda com o MongoDB Atlas. Se você não vir o segredo na lista suspensa, crie um no AWS Secrets Manager. Para obter mais informações, consulte Autenticação com o AWS Secrets Manager no Amazon Data Firehose.

    Codificação de conteúdo

    O Amazon Data Firehose usa a codificação de conteúdo para compactar o corpo de uma solicitação antes de enviá-la ao destino. Escolha GZIP ou Desabilitado para habilitar/desabilitar a codificação de conteúdo da solicitação.

    Período de novas tentativas

    Especifique por quanto tempo o Amazon Data Firehose fará novas tentativas de enviar os dados ao provedor terceirizado selecionado.

    Depois de enviar os dados, o Amazon Data Firehose primeiro esperará por uma confirmação do endpoint de HTTP. Se ocorrer um erro ou se a confirmação não chegar dentro do tempo limite para confirmação, o Amazon Data Firehose iniciará o contador do período de novas tentativas. Ele continuará tentando novamente até a duração da nova tentativa expirar. Depois disso, o Amazon Data Firehose considerará que houve uma falha de entrega de dados e fará o backup dos dados no bucket do Amazon S3.

    Toda vez que o Amazon Data Firehose envia dados para o endpoint de HTTP (seja a tentativa inicial ou uma nova tentativa), ele reinicia o contador de tempo limite para confirmação e aguarda uma confirmação do endpoint de HTTP.

    Mesmo que o período de novas tentativas expire, o Amazon Data Firehose ainda aguardará a confirmação até recebê-la ou até que o período de tempo limite para confirmação seja atingido. Se o tempo limite para confirmação expirar, o Amazon Data Firehose determinará se ainda resta algum tempo no contador de novas tentativas. Se houver tempo restante, ele tentará executar novamente e repetirá a lógica até receber um reconhecimento ou determinará que o tempo de tentar novamente expirou.

    Se você não quiser que o Amazon Data Firehose tente enviar os dados novamente, defina esse valor como 0.

    Sugestões de armazenamento em buffer

    O Amazon Data Firehose armazena em buffer os dados recebidos antes de entregá-los ao destino especificado. O tamanho de buffer recomendado para o destino varia de acordo com o provedor de serviços.

    Parâmetros: opcional

    O Amazon Data Firehose inclui esses pares de valores-chave em toda chamada HTTP. Esses parâmetros ajudam a identificar e organizar os destinos.

Definições de configurações de destino para o New Relic

Esta seção descreve as opções para usar o New Relic como destino. Para obter mais informações, consulte https://newrelic.com.

  • Forneça os valores para os seguintes campos:

    URL do endpoint de HTTP

    Escolha o URL do endpoint de HTTP entre as opções a seguir na lista suspensa.

    • Logs do New Relic - EUA

    • Métricas do New Relic - EUA

    • Métricas do New Relic - UE

    Autenticação

    É possível optar por inserir a chave da API diretamente ou recuperar o segredo do AWS Secrets Manager para acessar o New Relic.

    • Chave da API

      Insira sua chave de licença, que é uma sequência hexadecimal de 40 caracteres, nas configurações da One Account do New Relic. Essa chave de API é necessária para habilitar a entrega de dados do Firehose a esse endpoint.

    • Segredo do

      Selecione um segredo do AWS Secrets Manager que contenha a chave da API do New Relic. Se você não vir o segredo na lista suspensa, crie um no AWS Secrets Manager. Para obter mais informações, consulte Autenticação com o AWS Secrets Manager no Amazon Data Firehose.

    Codificação de conteúdo

    O Amazon Data Firehose usa a codificação de conteúdo para compactar o corpo de uma solicitação antes de enviá-la ao destino. Escolha GZIP ou Desabilitado para habilitar/desabilitar a codificação de conteúdo da solicitação.

    Período de novas tentativas

    Especifique por quanto tempo o Amazon Data Firehose fará novas tentativas de enviar dados ao endpoint de HTTP do New Relic.

    Depois de enviar os dados, o Amazon Data Firehose primeiro esperará por uma confirmação do endpoint de HTTP. Se ocorrer um erro ou se a confirmação não chegar dentro do tempo limite para confirmação, o Amazon Data Firehose iniciará o contador do período de novas tentativas. Ele continuará tentando novamente até a duração da nova tentativa expirar. Depois disso, o Amazon Data Firehose considerará que houve uma falha de entrega de dados e fará o backup dos dados no bucket do Amazon S3.

    Toda vez que o Amazon Data Firehose envia dados para o endpoint de HTTP (seja a tentativa inicial ou uma nova tentativa), ele reinicia o contador de tempo limite para confirmação e aguarda uma confirmação do endpoint de HTTP.

    Mesmo que o período de novas tentativas expire, o Amazon Data Firehose ainda aguardará a confirmação até recebê-la ou até que o período de tempo limite para confirmação seja atingido. Se o tempo limite para confirmação expirar, o Amazon Data Firehose determinará se ainda resta algum tempo no contador de novas tentativas. Se houver tempo restante, ele tentará executar novamente e repetirá a lógica até receber um reconhecimento ou determinará que o tempo de tentar novamente expirou.

    Se você não quiser que o Amazon Data Firehose tente enviar os dados novamente, defina esse valor como 0.

    Parâmetros: opcional

    O Amazon Data Firehose inclui esses pares de valores-chave em toda chamada HTTP. Esses parâmetros ajudam a identificar e organizar os destinos.

    Sugestões de armazenamento em buffer

    O Amazon Data Firehose armazena em buffer os dados recebidos antes de entregá-los ao destino especificado. O tamanho de buffer recomendado para o destino varia de acordo com o provedor de serviços.

Definição de configurações de destino para o Snowflake

Esta seção descreve as opções para uso do Snowflake como destino.

nota

A integração do Firehose com o Snowflake está disponível nas Regiões da AWS Leste dos EUA (Norte da Virgínia),Oeste dos EUA (Oregon), Europa (Irlanda), Leste dos EUA (Ohio), Ásia-Pacífico (Tóquio), Europa (Frankfurt), Ásia-Pacífico (Singapura), Ásia-Pacífico (Seul), Ásia-Pacífico (Sydney), Ásia-Pacífico (Mumbai), Europa (Londres), América do Sul (São Paulo), Canadá (Central), Europa (Paris), Asia Pacific (Osaka), Europa (Estocolmo) e Ásia-Pacífico (Jacarta).

Configurações de conexão
  • Forneça os valores para os seguintes campos:

    URL da conta do Snowflake

    Especifique um URL de conta do Snowflake. Por exemplo: xy12345.us-east-1.aws.snowflakecomputing.com. Consulte a Documentação do Snowflake para saber como determinar o URL da sua conta. Observe que você não deve especificar o número da porta, enquanto o protocolo (https://) é opcional.

    Autenticação

    É possível optar por inserir o login do usuário, a chave privada e a senha manualmente, ou recuperar o segredo do AWS Secrets Manager para acessar o Snowflake.

    • Login do usuário

      Especifique o usuário do Snowflake a ser usado para carregar dados. Certifique-se de que o usuário tenha acesso para inserir dados na tabela do Snowflake.

    • Chave privada

      Especifique a chave privada para autenticação com o Snowflake no formato PKCS8. Além disso, não inclua cabeçalho e rodapé do PEM como parte da chave privada. Se a chave estiver dividida em várias linhas, remova as quebras de linha. Veja a seguir um exemplo de como sua chave privada deve se parecer.

      -----BEGIN PRIVATE KEY----- KEY_CONTENT -----END PRIVATE KEY-----

      Remova o espaço em KEY_CONTENT e forneça-o ao Firehose. Não são necessários caracteres de cabeçalho/rodapé ou nova linha.

    • Senha

      Especifique a senha para descriptografar a chave privada criptografada. É possível deixar esse campo vazio se a chave privada não estiver criptografada. Para obter informações, consulte Uso da autenticação de pares de chaves e alternância de chaves.

    • Segredo do

      Selecione um segredo do AWS Secrets Manager que contenha as credenciais do Snowflake. Se você não vir o segredo na lista suspensa, crie um no AWS Secrets Manager. Para obter mais informações, consulte Autenticação com o AWS Secrets Manager no Amazon Data Firehose.

    Configuração de perfil

    Usar o perfil padrão do Snowflake: se esta opção for selecionada, o Firehose não passará nenhum perfil para o Snowflake. O perfil padrão será assumido para carregar dados. Certifique-se de que o perfil padrão tenha permissão para inserir dados na tabela do Snowflake.

    Usar o perfil personalizado do Snowflake: insira um perfil não padrão do Snowflake a ser assumido pelo Firehose ao carregar dados na tabela do Snowflake.

    Conectividade do Snowflake

    As opções são Privada ou Pública.

    ID da VPCE privada (opcional)

    O ID da VPCE do Firehose para se conectar de forma privada com o Snowflake. O formato do ID é com.amazonaws.vpce.[região].vpce-svc-[id]. Para obter mais informações, consulte AWS PrivateLink e Snowflake.

    nota

    Se seu cluster do Snowflake tiver um link privado habilitado, use uma política de rede baseada em AwsVpceIds para permitir dados do Amazon Data Firehose. O Firehose não exige que você configure uma política de rede baseada em IP na sua conta do Snowflake. Ter uma política de rede baseada em IP ativada pode interferir na conectividade do Firehose. Se você tiver um caso extremo que exija uma política baseada em IP, entre em contato com a equipe do Firehose enviando um ticket de suporte. Para obter uma lista de IDs de VPCE que podem ser usados, consulte o Acesso ao Snowflake na VPC.

Configurar o banco de dados
  • Você deve especificar as configurações a seguir para usar o Snowflake como destino para seu fluxo do Firehose.

    • Banco de dados do Snowflake: todos os dados no Snowflake são mantidos em bancos de dados.

    • Esquema do Snowflake: cada banco de dados consiste em um ou mais esquemas, que são agrupamentos lógicos de objetos de banco de dados, como tabelas e visualizações

    • Tabela do Snowflake: todos os dados no Snowflake são armazenados em tabelas de banco de dados, estruturadas logicamente como coleções de colunas e linhas.

Opções de carregamento de dados para sua tabela do Snowflake

  • Uso de chaves JSON como nomes de colunas

  • Uso de colunas VARIANT

    • Nome da coluna de conteúdo: especifique um nome de coluna na tabela, onde os dados brutos devem ser carregados.

    • Nome da coluna de metadados (opcional): especifique um nome de coluna na tabela onde as informações de metadados devem ser carregadas. Ao ativar esse campo, você verá a coluna a seguir na tabela do Snowflake com base no tipo de origem.

      Para Direct PUT como origem

      { "firehoseDeliveryStreamName" : "streamname", "IngestionTime" : "timestamp" }

      Para o fluxo de dados do Kinesis como origem

      { "kinesisStreamName" : "streamname", "kinesisShardId" : "Id", "kinesisPartitionKey" : "key", "kinesisSequenceNumber" : "1234", "subsequenceNumber" : "2334", "IngestionTime" : "timestamp" }

Período de novas tentativas

Período (0 a 7.200 segundos) durante o qual o Firehose fará novas tentativas se a abertura de canal ou a entrega ao Snowflake falhar devido a problemas de serviço do Snowflake. O Firehose fará novas tentativas com um recuo exponencial, até que a o período de novas tentativas termine. Se você definir a o período de novas tentativas como 0 (zero) segundos, o Firehose não fará novas tentativas após falhas no Snowflake e encaminhará os dados para o bucket de erros do Amazon S3.

Sugestões de buffer

O Amazon Data Firehose armazena em buffer os dados recebidos antes de entregá-los ao destino especificado. O tamanho de buffer recomendado para o destino varia de acordo com o provedor de serviços. Para obter mais informações, consulte Configuração de sugestões de armazenamento em buffer.

Definição de configurações de destino para o Splunk

Esta seção descreve as opções para usar o Splunk como destino.

nota

O Firehose entrega dados para clusters do Splunk configurados com Classic Load Balancer ou Application Load Balancer.

  • Forneça os valores para os seguintes campos:

    Splunk cluster endpoint

    Para determinar o endpoint, consulte Configuração do Amazon Data Firehose para envio de dados para a plataforma do Splunk na documentação do Splunk.

    Splunk endpoint type

    Escolha Raw endpoint na maioria dos casos. Selecione Event endpoint se você pré-processou seus dados usando o AWS Lambda para enviar dados para diferentes índices por tipo de evento. Para obter informações sobre qual endpoint usar, consulte Configurar o Amazon Data Firehose para enviar dados para a plataforma Splunk na documentação do Splunk.

    Autenticação

    É possível optar por inserir o token de autenticação diretamente ou recuperar o segredo do AWS Secrets Manager para acessar o Splunk.

    HEC acknowledgement timeout

    Especifique quanto tempo o Amazon Data Firehose aguardará a confirmação do índice do Splunk. Se o Splunk não enviar a confirmação antes de o tempo limite ser atingido, o Amazon Data Firehose considerará que houve uma falha na entrega de dados. Em seguida, o Amazon Data Firehose fará uma nova tentativa ou fará o backup dos dados no bucket do Amazon S3, dependendo do valor do período de novas tentativas que você definir.

    Período de novas tentativas

    Especifique por quanto o tempo o Amazon Data Firehose fará novas tentativas de enviar os dados ao Splunk.

    Depois de enviar os dados, o Amazon Data Firehose primeiro esperará por uma confirmação do Splunk. Se ocorrer um erro ou se a confirmação não chegar dentro do tempo limite para confirmação, o Amazon Data Firehose iniciará o contador do período de novas tentativas. Ele continuará tentando novamente até a duração da nova tentativa expirar. Depois disso, o Amazon Data Firehose considerará que houve uma falha de entrega de dados e fará o backup dos dados no bucket do Amazon S3.

    Toda vez que o Amazon Data Firehose envia dados para o Splunk (seja uma tentativa inicial ou uma nova tentativa), ele reinicia o contador de tempo limite para confirmação e aguarda uma confirmação do Splunk.

    Mesmo que o período de novas tentativas expire, o Amazon Data Firehose ainda aguardará a confirmação até recebê-la ou até que o período de tempo limite para confirmação seja atingido. Se o tempo limite para confirmação expirar, o Amazon Data Firehose determinará se ainda resta algum tempo no contador de novas tentativas. Se houver tempo restante, ele tentará executar novamente e repetirá a lógica até receber um reconhecimento ou determinará que o tempo de tentar novamente expirou.

    Se você não quiser que o Amazon Data Firehose tente enviar os dados novamente, defina esse valor como 0.

    Sugestões de armazenamento em buffer

    O Amazon Data Firehose armazena em buffer os dados recebidos antes de entregá-los ao destino especificado. O tamanho de buffer recomendado para o destino varia com base no provedor de serviços.

Definição de configurações de destino para a Splunk Observability Cloud

Esta seção descreve as opções para usar a Splunk Observability Cloud como destino. Para obter mais informações, consulte https://docs.splunk.com/observability/en/gdi/get-data-in/connect/aws/aws-apiconfig.html#connect-to-aws-using-the-splunk-observability-cloud-api.

  • Forneça os valores para os seguintes campos:

    URL do endpoint de ingestão na nuvem

    É possível encontrar o URL de ingestão de dados em tempo real da Splunk Observability Cloud em Profile > Organizations > Real-time Data Ingest Endpoint no console do Splunk Observability.

    Autenticação

    É possível optar por inserir o token de acesso diretamente ou recuperar o segredo do AWS Secrets Manager para acessar o Splunk Observability Cloud.

    • Token de acesso

      Copie seu token de acesso do Splunk Observability com o escopo de autorização de INGEST de Tokens de acesso, nas Configurações do console do Splunk Observability.

    • Segredo do

      Selecione um segredo do AWS Secrets Manager que contenha o token de acesso para o Splunk Observability Cloud. Se você não vir o segredo na lista suspensa, crie um no AWS Secrets Manager. Para obter mais informações, consulte Autenticação com o AWS Secrets Manager no Amazon Data Firehose.

    Codificação de conteúdo

    O Amazon Data Firehose usa a codificação de conteúdo para compactar o corpo de uma solicitação antes de enviá-la ao destino. Escolha GZIP ou Desabilitado para habilitar/desabilitar a codificação de conteúdo da solicitação.

    Período de novas tentativas

    Especifique por quanto tempo o Amazon Data Firehose fará novas tentativas de enviar os dados ao endpoint de HTTP selecionado.

    Depois de enviar os dados, o Amazon Data Firehose primeiro esperará por uma confirmação do endpoint de HTTP. Se ocorrer um erro ou se a confirmação não chegar dentro do tempo limite para confirmação, o Amazon Data Firehose iniciará o contador do período de novas tentativas. Ele continuará tentando novamente até a duração da nova tentativa expirar. Depois disso, o Amazon Data Firehose considerará que houve uma falha de entrega de dados e fará o backup dos dados no bucket do Amazon S3.

    Toda vez que o Amazon Data Firehose envia dados para o endpoint de HTTP (seja a tentativa inicial ou uma nova tentativa), ele reinicia o contador de tempo limite para confirmação e aguarda uma confirmação do endpoint de HTTP.

    Mesmo que o período de novas tentativas expire, o Amazon Data Firehose ainda aguardará a confirmação até recebê-la ou até que o período de tempo limite para confirmação seja atingido. Se o tempo limite para confirmação expirar, o Amazon Data Firehose determinará se ainda resta algum tempo no contador de novas tentativas. Se houver tempo restante, ele tentará executar novamente e repetirá a lógica até receber um reconhecimento ou determinará que o tempo de tentar novamente expirou.

    Se você não quiser que o Amazon Data Firehose tente enviar os dados novamente, defina esse valor como 0.

    Parâmetros: opcional

    O Amazon Data Firehose inclui esses pares de valores-chave em toda chamada HTTP. Esses parâmetros ajudam a identificar e organizar os destinos.

    Sugestões de armazenamento em buffer

    O Amazon Data Firehose armazena em buffer os dados recebidos antes de entregá-los ao destino especificado. O tamanho de buffer recomendado para o destino varia de acordo com o provedor de serviços.

Definições de configurações de destino para o Sumo Logic

Esta seção descreve as opções para usar o Sumo Logic como destino. Para obter mais informações, consulte https://www.sumologic.com.

  • Forneça os valores para os seguintes campos:

    URL do endpoint de HTTP

    Especifique o URL para o endpoint de HTTP no formato a seguir: https://deployment name.sumologic.net/receiver/v1/kinesis/dataType/access token. A origem deve ser uma URL HTTPS.

    Codificação de conteúdo

    O Amazon Data Firehose usa a codificação de conteúdo para compactar o corpo de uma solicitação antes de enviá-la ao destino. Escolha GZIP ou Desabilitado para habilitar/desabilitar a codificação de conteúdo da solicitação.

    Período de novas tentativas

    Especifique por quanto tempo o Amazon Data Firehose fará novas tentativas de enviar os dados ao Sumo Logic.

    Depois de enviar os dados, o Amazon Data Firehose primeiro esperará por uma confirmação do endpoint de HTTP. Se ocorrer um erro ou se a confirmação não chegar dentro do tempo limite para confirmação, o Amazon Data Firehose iniciará o contador do período de novas tentativas. Ele continuará tentando novamente até a duração da nova tentativa expirar. Depois disso, o Amazon Data Firehose considerará que houve uma falha de entrega de dados e fará o backup dos dados no bucket do Amazon S3.

    Toda vez que o Amazon Data Firehose envia dados para o endpoint de HTTP (seja a tentativa inicial ou uma nova tentativa), ele reinicia o contador de tempo limite para confirmação e aguarda uma confirmação do endpoint de HTTP.

    Mesmo que o período de novas tentativas expire, o Amazon Data Firehose ainda aguardará a confirmação até recebê-la ou até que o período de tempo limite para confirmação seja atingido. Se o tempo limite para confirmação expirar, o Amazon Data Firehose determinará se ainda resta algum tempo no contador de novas tentativas. Se houver tempo restante, ele tentará executar novamente e repetirá a lógica até receber um reconhecimento ou determinará que o tempo de tentar novamente expirou.

    Se você não quiser que o Amazon Data Firehose tente enviar os dados novamente, defina esse valor como 0.

    Parâmetros: opcional

    O Amazon Data Firehose inclui esses pares de valores-chave em toda chamada HTTP. Esses parâmetros ajudam a identificar e organizar os destinos.

    Sugestões de armazenamento em buffer

    O Amazon Data Firehose armazena em buffer os dados recebidos antes de entregá-los ao destino especificado. O tamanho de buffer recomendado para o destino do Elastic varia de acordo com o provedor de serviços.

Definição de configurações de destino para o Elastic

Esta seção descreve as opções para usar o Elastic como destino.

  • Forneça os valores para os seguintes campos:

    URL do endpoint do Elastic

    Especifique o URL para o endpoint de HTTP no formato a seguir: https://<cluster-id>.es.<region>.aws.elastic-cloud.com. A origem deve ser um URL HTTPS.

    Autenticação

    É possível optar por inserir a chave da API diretamente ou recuperar o segredo do AWS Secrets Manager para acessar o Elastic.

    • Chave da API

      Entre em contato com o Elastic para obter a chave de API necessária para permitir a entrega de dados do Firehose para esse serviço.

    • Segredo do

      Selecione um segredo do AWS Secrets Manager que contenha a chave da API do Elastic. Se você não vir o segredo na lista suspensa, crie um no AWS Secrets Manager. Para obter mais informações, consulte Autenticação com o AWS Secrets Manager no Amazon Data Firehose.

    Codificação de conteúdo

    O Amazon Data Firehose usa a codificação de conteúdo para compactar o corpo de uma solicitação antes de enviá-la ao destino. Escolha GZIP (que é o selecionado por padrão) ou Desabilitado para habilitar/desabilitar a codificação de conteúdo da solicitação.

    Período de novas tentativas

    Especifique por quanto tempo o Amazon Data Firehose fará novas tentativas de enviar os dados ao Elastic.

    Depois de enviar os dados, o Amazon Data Firehose primeiro esperará por uma confirmação do endpoint de HTTP. Se ocorrer um erro ou se a confirmação não chegar dentro do tempo limite para confirmação, o Amazon Data Firehose iniciará o contador do período de novas tentativas. Ele continuará tentando novamente até a duração da nova tentativa expirar. Depois disso, o Amazon Data Firehose considerará que houve uma falha de entrega de dados e fará o backup dos dados no bucket do Amazon S3.

    Toda vez que o Amazon Data Firehose envia dados para o endpoint de HTTP (seja a tentativa inicial ou uma nova tentativa), ele reinicia o contador de tempo limite para confirmação e aguarda uma confirmação do endpoint de HTTP.

    Mesmo que o período de novas tentativas expire, o Amazon Data Firehose ainda aguardará a confirmação até recebê-la ou até que o período de tempo limite para confirmação seja atingido. Se o tempo limite para confirmação expirar, o Amazon Data Firehose determinará se ainda resta algum tempo no contador de novas tentativas. Se houver tempo restante, ele tentará executar novamente e repetirá a lógica até receber um reconhecimento ou determinará que o tempo de tentar novamente expirou.

    Se você não quiser que o Amazon Data Firehose tente enviar os dados novamente, defina esse valor como 0.

    Parâmetros: opcional

    O Amazon Data Firehose inclui esses pares de valores-chave em toda chamada HTTP. Esses parâmetros ajudam a identificar e organizar os destinos.

    Sugestões de armazenamento em buffer

    O Amazon Data Firehose armazena em buffer os dados recebidos antes de entregá-los ao destino especificado. O tamanho de buffer recomendado quando o destino é O Elastic é de 1 MiB.