有关与适用于 LiveAnalytics 的 Amazon Timestream 类似的功能,可以考虑使用适用于 InfluxDB 的 Amazon Timestream。适用于 InfluxDB 的 Amazon Timestream 提供简化的数据摄取和个位数毫秒级的查询响应时间,以实现实时分析。点击此处了解更多信息。
Amazon MSK
使用适用于 Apache Flink 的托管服务,将 Amazon MSK 数据发送到适用于 LiveAnalytics 的 Timestream
通过构建数据连接器,该连接器类似适用于 Apache Flink 的托管服务的示例 Timestream 数据连接器,可将数据从 Amazon MSK 发送到 Timestream。有关更多信息,请参阅 适用于 Apache Flink 的亚马逊托管服务。
使用 Kafka Connect,将 Amazon MSK 数据发送到适用于 LiveAnalytics 的 Timestream
您可以使用 Kafka Connect,将时间序列数据直接从 Amazon MSK 摄取到适用于 LiveAnalytics 的 Timestream 中。
我们已为 Timestream 创建示例 Kafka Sink Connector。我们还已创建示例 Apache jMeter 测试计划,用于将数据发布到 Kafka 主题,以便数据通过 Timestream Kafka Sink Connector 从该主题流向适用于 LiveAnalytics 的 Timestream 表。所有这些构件均可在 GitHub 上获取。
注意
Java 11 是使用 Timestream Kafka Sink Connector 时的推荐版本。如果有多个 Java 版本,请确保将 Java 11 导出至 JAVA_HOME 环境变量。
创建示例应用程序
要开始使用,请按照以下步骤进行。
-
在适用于 LiveAnalytics 的 Timestream 中,创建名为
kafkastream的数据库。有关详细说明,请参阅流程 创建数据库。
-
在适用于 LiveAnalytics 的 Timestream 中,创建名为
purchase_history的表。有关详细说明,请参阅流程 创建表。
-
按照 中共享的说明创建以下内容:、和。
Amazon MSK 集群
配置为 Kafka 生成器客户端计算机的 Amazon EC2 实例
Kafka 主题
有关详细说明,请参阅 kafka_ingestor 项目的先决条件
。 -
克隆 Timestream Kafka Sink Connector
存储库。 有关详细说明,请参阅 GitHub 上的克隆存储库
。 -
编译插件代码。
有关详细说明,请参阅 GitHub 上的连接器 - 从源构建
。 -
将以下文件上传到 S3 存储桶:按照 中所述的说明操作。
-
/target目录中的 jar 文件(kafka-connector-timestream->VERSION<-jar-with-dependencies.jar) -
示例 json 架构文件,
purchase_history.json。
有关详细说明,请参阅《Amazon S3 用户指南》中的上传对象。
-
-
创建两个 VPC 端点。MSK 连接器将使用这些端点通过 AWS PrivateLink 访问相关资源。
-
一个端点用于访问 Amazon S3 存储桶
-
一个端点用于访问适用于 LiveAnalytics 的 Timestream 表。
有关说明,请参阅 VPC 端点
。 -
-
使用上传的 jar 文件创建自定义插件。
有关详细说明,请参阅《Amazon MSK 开发人员指南》中的插件。
-
使用工作程序配置参数
中描述的 JSON 内容,创建自定义工作程序配置。按照 中所述的说明进行操作 有关详细说明,请参阅《Amazon MSK 开发人员指南》中的创建自定义工作程序配置。
-
创建服务执行 IAM 角色。
有关详细说明,请参阅 IAM 服务角色
。 -
使用上述步骤中创建的自定义插件、自定义工作程序配置和服务执行 IAM 角色以及示例连接器配置
,创建 Amazon MSK 连接器。 有关详细说明,请参阅《Amazon MSK 开发人员指南》中的创建连接器。
请确保将以下配置参数的值更新为相应的值。有关详细信息,请参阅连接器配置参数
。 -
aws.region -
timestream.schema.s3.bucket.name -
timestream.ingestion.endpoint
连接器创建需要 5 至 10 分钟才能完成。当管道状态更改为
Running时,表明管道已就绪。 -
-
持续发布消息流,将数据写入创建的 Kafka 主题。
有关详细说明,请参阅如何使用
。 -
运行一个或多个查询,确保数据从 Amazon MSK 发送到 MSK Connect 再发送到适用于 LiveAnalytics 的 Timestream 表。
有关详细说明,请参阅流程 运行查询。
其他资源
博客使用 Kafka Connect 实现从 Kafka 集群到适用于 LiveAnalytics 的 Timestream 实时无服务器数据摄取