Amazon Timestream LiveAnalytics for ne sera plus ouvert aux nouveaux clients à compter du 20 juin 2025. Si vous souhaitez utiliser Amazon Timestream LiveAnalytics pour, inscrivez-vous avant cette date. Les clients existants peuvent continuer à utiliser le service normalement. Pour plus d'informations, consultez Amazon Timestream LiveAnalytics pour connaître les modifications de disponibilité.
Les traductions sont fournies par des outils de traduction automatique. En cas de conflit entre le contenu d'une traduction et celui de la version originale en anglais, la version anglaise prévaudra.
Amazon MSK
Utilisation du service géré pour Apache Flink pour envoyer des Amazon MSK données à Timestream pour LiveAnalytics
Vous pouvez envoyer des données de Amazon MSK à Timestream en créant un connecteur de données similaire à l'exemple de connecteur de Timestream données pour Managed Service for Apache Flink. Pour plus d’informations, consultez la section Service géré Amazon pour Apache Flink.
Utiliser Kafka Connect pour envoyer des données Amazon MSK à Timestream pour LiveAnalytics
Vous pouvez utiliser Kafka Connect pour ingérer les données de vos séries chronologiques Amazon MSK directement dans Timestream for. LiveAnalytics
Nous avons créé un exemple de connecteur Kafka Sink pour Timestream. Nous avons également créé un exemple de plan de test Apache JMeter pour publier des données sur un sujet Kafka, afin que les données puissent être transmises du sujet via le connecteur Timestream Kafka Sink vers un flux temporel pour une table. LiveAnalytics Tous ces artefacts sont disponibles sur GitHub.
Note
Java 11 est la version recommandée pour utiliser le connecteur Timestream Kafka Sink. Si vous disposez de plusieurs versions de Java, assurez-vous d'exporter Java 11 vers votre variable d'environnement JAVA_HOME.
Création d'un exemple d'application
Pour commencer, suivez la procédure ci-dessous.
-
Dans Timestream for LiveAnalytics, créez une base de données portant le nom.
kafkastream
Consultez la procédure Créer une base de données pour obtenir des instructions détaillées.
-
Dans Timestream for LiveAnalytics, créez une table portant le nom.
purchase_history
Consultez la procédure Créer une table pour obtenir des instructions détaillées.
-
Suivez les instructions partagées dans le pour créer les éléments suivants :, et.
Un Amazon MSK cluster
Une Amazon EC2 instance configurée en tant que machine cliente du producteur Kafka
Un sujet de Kafka
Consultez les prérequis du projet
kafka_ingestor pour des instructions détaillées. -
Clonez le référentiel Timestream Kafka Sink Connector
. Consultez la section Clonage d'un dépôt
GitHub pour obtenir des instructions détaillées. -
Compilez le code du plugin.
Voir Connector - Build from source
on GitHub pour des instructions détaillées. -
Téléchargez les fichiers suivants dans un compartiment S3 : en suivant les instructions décrites dans.
-
Le fichier jar (kafka-connector-timestream->VERSION<- jar-with-dependencies .jar) du répertoire
/target
-
Exemple de fichier de schéma JSON,
purchase_history.json
.
Consultez la section Chargement d'objets dans le guide de Amazon S3 l'utilisateur pour obtenir des instructions détaillées.
-
-
Créez deux points de terminaison VPC. Ces points de terminaison seraient utilisés par le connecteur MSK pour accéder aux ressources en utilisant. AWS PrivateLink
-
Un pour accéder au Amazon S3 compartiment
-
Un pour accéder au Timestream de la table. LiveAnalytics
Consultez la section Points de terminaison VPC pour obtenir des instructions
détaillées. -
-
Créez un plugin personnalisé avec le fichier jar téléchargé.
Consultez la section Plugins dans le guide du Amazon MSK développeur pour obtenir des instructions détaillées.
-
Créez une configuration de travail personnalisée avec le contenu JSON décrit dans Paramètres de configuration de travail
. En suivant les instructions décrites dans Consultez la section Création d'une configuration de travail personnalisée dans le Guide du Amazon MSK développeur pour obtenir des instructions détaillées.
-
Créez un IAM rôle d'exécution de service.
Reportez-vous à la section IAM Service Role
pour obtenir des instructions détaillées. -
Créez un Amazon MSK connecteur avec le plugin personnalisé, la configuration de travail personnalisée et le IAM rôle d'exécution de service créés dans les étapes précédentes et avec l'exemple de configuration du connecteur
. Reportez-vous à la section Création d'un connecteur dans le guide du Amazon MSK développeur pour obtenir des instructions détaillées.
Assurez-vous de mettre à jour les valeurs des paramètres de configuration ci-dessous avec les valeurs respectives. Voir Paramètres de configuration du connecteur
pour plus de détails. -
aws.region
-
timestream.schema.s3.bucket.name
-
timestream.ingestion.endpoint
La création du connecteur prend 5 à 10 minutes. Le pipeline est prêt lorsque son statut passe à
Running
. -
-
Publiez un flux continu de messages pour écrire des données sur le sujet Kafka créé.
Consultez la section Comment l'utiliser
pour obtenir des instructions détaillées. -
Exécutez une ou plusieurs requêtes pour vous assurer que les données sont envoyées depuis MSK Connect Amazon MSK vers la table Timestream for. LiveAnalytics
Consultez la procédure Exécuter une requête pour obtenir des instructions détaillées.
Ressources supplémentaires
Le blog Real-time serverless data ingestion from your Kafka clusters into Timestream for using LiveAnalytics Kafka Connect explique la configuration d'un end-to-end pipeline à l'