Les traductions sont fournies par des outils de traduction automatique. En cas de conflit entre le contenu d'une traduction et celui de la version originale en anglais, la version anglaise prévaudra.
Étape 5 : Produire et consommer des données
Dans cette étape de Get Started Using Amazon MSK, vous produisez et consommez des données.
Pour produire et consommer des messages
-
Exécutez la commande suivante pour démarrer un producteur de console.
$KAFKA_ROOT/bin/kafka-console-producer.sh --broker-list $BOOTSTRAP_SERVER --producer.config $KAFKA_ROOT/config/client.properties --topic
MSKTutorialTopic
-
Saisissez le message souhaité, puis appuyez sur Entrée. Répétez cette étape deux ou trois fois. Chaque fois que vous entrez une ligne et appuyez sur Entrée, cette ligne est envoyée à votre cluster Apache Kafka sous forme de message distinct.
-
Gardez la connexion à l'ordinateur client ouverte, puis ouvrez une deuxième connexion séparée à cet ordinateur dans une nouvelle fenêtre. Comme il s'agit d'une nouvelle session, définissez à nouveau les variables d'
BOOTSTRAP_SERVER
environnementKAFKA_ROOT
et. Pour plus d'informations sur la façon de définir ces variables d'environnement, consultezCréation d'un sujet sur la machine cliente. -
Exécutez la commande suivante avec votre deuxième chaîne de connexion à la machine cliente pour créer un consommateur de console.
$KAFKA_ROOT/bin/kafka-console-consumer.sh --bootstrap-server $BOOTSTRAP_SERVER --consumer.config $KAFKA_ROOT/config/client.properties --topic
MSKTutorialTopic
--from-beginningVous devriez commencer à voir les messages que vous avez entrés plus tôt lorsque vous avez utilisé la commande console producer.
-
Entrez d'autres messages dans la fenêtre du producteur et regardez-les apparaître dans la fenêtre du consommateur.
Étape suivante
Étape 6 : Utiliser Amazon CloudWatch pour consulter les métriques Amazon MSK