Siapkan kolektor Prometheus yang dikelola untuk Amazon MSK - Amazon Managed Service for Prometheus

Terjemahan disediakan oleh mesin penerjemah. Jika konten terjemahan yang diberikan bertentangan dengan versi bahasa Inggris aslinya, utamakan versi bahasa Inggris.

Siapkan kolektor Prometheus yang dikelola untuk Amazon MSK

Untuk menggunakan Layanan Terkelola Amazon untuk kolektor Prometheus, Anda membuat scraper yang menemukan dan menarik metrik di cluster Amazon Managed Streaming for Apache Kafka. Anda juga dapat membuat scraper yang terintegrasi dengan Amazon Elastic Kubernetes Service. Untuk informasi selengkapnya, lihat Mengintegrasikan Amazon EKS.

Buat scraper

Layanan Dikelola Amazon untuk kolektor Prometheus terdiri dari scraper yang menemukan dan mengumpulkan metrik dari cluster MSK Amazon. Amazon Managed Service for Prometheus mengelola scraper untuk Anda, memberi Anda skalabilitas, keamanan, dan keandalan yang Anda butuhkan, tanpa harus mengelola instans, agen, atau pencakar apa pun sendiri.

Anda dapat membuat scraper menggunakan AWS API atau AWS CLI seperti yang dijelaskan dalam prosedur berikut.

Ada beberapa prasyarat untuk membuat scraper Anda sendiri:

  • Anda harus memiliki kluster MSK Amazon yang dibuat.

  • Konfigurasikan grup keamanan klaster MSK Amazon Anda untuk mengizinkan lalu lintas masuk pada port 11001 (Eksportir JMX) dan 11002 (Node Exporter) dalam VPC Amazon Anda, karena scraper memerlukan akses ke catatan DNS ini untuk mengumpulkan metrik Prometheus.

  • VPC Amazon tempat klaster MSK Amazon berada harus mengaktifkan DNS.

catatan

Cluster akan dikaitkan dengan scraper dengan nama sumber daya Amazon (ARN). Jika Anda menghapus cluster, dan kemudian membuat yang baru dengan nama yang sama, ARN akan digunakan kembali untuk cluster baru. Karena itu, scraper akan mencoba mengumpulkan metrik untuk cluster baru. Anda menghapus pencakar secara terpisah dari menghapus cluster.

To create a scraper using the AWS API

Gunakan operasi CreateScraper API untuk membuat scraper dengan AWS API. Contoh berikut membuat scraper di Wilayah AS Timur (Virginia N.). Ganti example konten dengan informasi cluster MSK Amazon Anda, dan berikan konfigurasi scraper Anda.

catatan

Konfigurasikan grup keamanan dan subnet agar sesuai dengan kluster target Anda. Sertakan setidaknya dua subnet di dua zona ketersediaan.

POST /scrapers HTTP/1.1 Content-Length: 415 Authorization: AUTHPARAMS X-Amz-Date: 20201201T193725Z User-Agent: aws-cli/1.18.147 Python/2.7.18 Linux/5.4.58-37.125.amzn2int.x86_64 botocore/1.18.6 { "alias": "myScraper", "destination": { "ampConfiguration": { "workspaceArn": "arn:aws:aps:us-east-1:123456789012:workspace/ws-workspace-id" } }, "source": { "vpcConfiguration": { "securityGroupIds": ["sg-security-group-id"], "subnetIds": ["subnet-subnet-id-1", "subnet-subnet-id-2"] } }, "scrapeConfiguration": { "configurationBlob": base64-encoded-blob } }

Dalam contoh, scrapeConfiguration parameter memerlukan file YAMM konfigurasi Prometheus yang dikodekan base64 yang menentukan catatan DNS dari kluster MSK.

Setiap catatan DNS mewakili titik akhir broker di Availability Zone tertentu, memungkinkan klien untuk terhubung ke broker yang didistribusikan di seluruh pilihan Anda AZs untuk ketersediaan tinggi.

Jumlah catatan DNS di properti klaster MSK Anda sesuai dengan jumlah node broker dan Availability Zone dalam konfigurasi klaster Anda:

  • Konfigurasi default - 3 node broker di 3 AZs = 3 catatan DNS

  • Konfigurasi khusus - 2 node broker di 2 AZs = 2 catatan DNS

Untuk mendapatkan catatan DNS untuk cluster MSK Anda, buka konsol MSK di rumah? https://console.aws.amazon.com/msk/ region=us-east-1#/home/. Pergi ke cluster MSK Anda. Pilih Properti, Broker, dan Titik Akhir.

Anda memiliki dua opsi untuk mengonfigurasi Prometheus untuk mengikis metrik dari cluster MSK Anda:

  1. Resolusi DNS tingkat cluster (Disarankan) — Gunakan nama DNS dasar cluster untuk secara otomatis menemukan semua broker. Jika titik akhir broker Andab-1.clusterName.xxx.xxx.xxx, gunakan clusterName.xxx.xxx.xxx sebagai catatan DNS. Hal ini memungkinkan Prometheus untuk secara otomatis mengikis semua broker di cluster.

    Titik akhir broker individu — Tentukan setiap titik akhir broker secara individual untuk kontrol granular. Gunakan pengidentifikasi broker lengkap (b-1, b-2) dalam konfigurasi Anda. Contoh:

    dns_sd_configs: - names: - b-1.clusterName.xxx.xxx.xxx - b-2.clusterName.xxx.xxx.xxx - b-3.clusterName.xxx.xxx.xxx
catatan

Ganti clusterName.xxx.xxx.xxx dengan titik akhir klaster MSK Anda yang sebenarnya dari Konsol. AWS

Untuk informasi lebih lanjut, lihathttps://prometheus.io/docs/prometheus/latest/configuration/configuration/#dns_sd_config <dns_sd_config>di dokumentasi Prometheus.

Berikut ini adalah contoh file konfigurasi scraper:

global: scrape_interval: 30s external_labels: clusterArn: msk-test-1 scrape_configs: - job_name: msk-jmx scheme: http metrics_path: /metrics scrape_timeout: 10s dns_sd_configs: - names: - dns-record-1 - dns-record-2 - dns-record-3 type: A port: 11001 relabel_configs: - source_labels: [__meta_dns_name] target_label: broker_dns - source_labels: [__address__] target_label: instance regex: '(.*)' replacement: '${1}' - job_name: msk-node scheme: http metrics_path: /metrics scrape_timeout: 10s dns_sd_configs: - names: - dns-record-1 - dns-record-2 - dns-record-3 type: A port: 11002 relabel_configs: - source_labels: [__meta_dns_name] target_label: broker_dns - source_labels: [__address__] target_label: instance regex: '(.*)' replacement: '${1}'

Jalankan salah satu perintah berikut untuk mengonversi file YAMM ke base64. Anda juga dapat menggunakan konverter base64 online apa pun untuk mengonversi file.

contoh Linux/macOS
echo -n scraper config updated with dns records | base64
contoh Jendela PowerShell
[Convert]::ToBase64String([System.Text.Encoding]::UTF8.GetBytes(scraper config updated with dns records))
To create a scraper using the AWS CLI

Gunakan create-scraper perintah untuk membuat scraper menggunakan file. AWS Command Line Interface Contoh berikut membuat scraper di Wilayah AS Timur (Virginia N.). Ganti example konten dengan informasi cluster MSK Amazon Anda, dan berikan konfigurasi scraper Anda.

catatan

Konfigurasikan grup keamanan dan subnet agar sesuai dengan kluster target Anda. Sertakan setidaknya dua subnet di dua zona ketersediaan.

aws amp create-scraper \ --source vpcConfiguration="{securityGroupIds=['sg-security-group-id'],subnetIds=['subnet-subnet-id-1', 'subnet-subnet-id-2']}" \ --scrape-configuration configurationBlob=base64-encoded-blob \ --destination ampConfiguration="{workspaceArn='arn:aws:aps:us-west-2:123456789012:workspace/ws-workspace-id'}"
  • Berikut ini adalah daftar lengkap operasi scraper yang dapat Anda gunakan dengan AWS API:

    Buat scraper dengan operasi CreateScraperAPI.

  • Buat daftar scraper yang ada dengan operasi ListScrapersAPI.

  • Perbarui alias, konfigurasi, atau tujuan scraper dengan operasi UpdateScraperAPI.

  • Hapus scraper dengan operasi DeleteScraperAPI.

  • Dapatkan detail selengkapnya tentang scraper dengan operasi DescribeScraperAPI.

Pengaturan lintas akun

Untuk membuat scraper dalam penyiapan lintas akun saat klaster MSK Amazon tempat Anda ingin mengumpulkan metrik berada di akun yang berbeda dari kolektor Layanan Terkelola Amazon untuk Prometheus, gunakan prosedur di bawah ini.

Misalnya, ketika Anda memiliki dua akun, akun sumber pertama account_id_source tempat MSK Amazon berada, dan akun target kedua account_id_target tempat Amazon Managed Service untuk ruang kerja Prometheus berada.

Untuk membuat scraper dalam pengaturan lintas akun
  1. Di akun sumber, buat peran arn:aws:iam::111122223333:role/Source dan tambahkan kebijakan kepercayaan berikut.

    { "Effect": "Allow", "Principal": { "Service": [ "scraper.aps.amazonaws.com" ] }, "Action": "sts:AssumeRole", "Condition": { "ArnEquals": { "aws:SourceArn": "arn:aws:aps:aws-region:111122223333:scraper/scraper-id" }, "StringEquals": { "AWS:SourceAccount": "111122223333" } } }
  2. Di setiap kombinasi sumber (klaster MSK Amazon) dan target (Layanan Terkelola Amazon untuk ruang kerja Prometheus), Anda perlu membuat arn:aws:iam::444455556666:role/Target peran dan menambahkan kebijakan kepercayaan berikut dengan izin untuk. AmazonPrometheusRemoteWriteAccess

    { "Effect": "Allow", "Principal": { "AWS": "arn:aws:iam::111122223333:role/Source" }, "Action": "sts:AssumeRole", "Condition": { "StringEquals": { "sts:ExternalId": "arn:aws:aps:aws-region:111122223333:scraper/scraper-id" } } }
  3. Buat scraper dengan --role-configuration opsi.

    aws amp create-scraper \ --source vpcConfiguration="{subnetIds=[subnet-subnet-id], "securityGroupIds": ["sg-security-group-id"]}" \ --scrape-configuration configurationBlob=<base64-encoded-blob> \ --destination ampConfiguration="{workspaceArn='arn:aws:aps:aws-region:444455556666:workspace/ws-workspace-id'}"\ --role-configuration '{"sourceRoleArn":"arn:aws:iam::111122223333:role/Source", "targetRoleArn":"arn:aws:iam::444455556666:role/Target"}'
  4. Validasi pembuatan scraper.

    aws amp list-scrapers { "scrapers": [ { "scraperId": "s-example123456789abcdef0", "arn": "arn:aws:aps:aws-region:111122223333:scraper/s-example123456789abcdef0": "arn:aws:iam::111122223333:role/Source", "status": "ACTIVE", "creationTime": "2025-10-27T18:45:00.000Z", "lastModificationTime": "2025-10-27T18:50:00.000Z", "tags": {}, "statusReason": "Scraper is running successfully", "source": { "vpcConfiguration": { "subnetIds": ["subnet-subnet-id"], "securityGroupIds": ["sg-security-group-id"] } }, "destination": { "ampConfiguration": { "workspaceArn": "arn:aws:aps:aws-region:444455556666:workspace/ws-workspace-id'" } }, "scrapeConfiguration": { "configurationBlob": "<base64-encoded-blob>" } } ] }

Mengubah antara RoleConfiguration dan peran terkait layanan

Jika Anda ingin beralih kembali ke peran terkait layanan alih-alih menulis RoleConfiguration ke Layanan Terkelola Amazon untuk ruang kerja Prometheus, Anda harus memperbarui UpdateScraper dan menyediakan ruang kerja di akun yang sama dengan scraper tanpa. RoleConfiguration RoleConfigurationAkan dihapus dari scraper dan peran terkait layanan akan digunakan.

Ketika Anda mengubah ruang kerja di akun yang sama dengan scraper dan Anda ingin terus menggunakanRoleConfiguration, Anda harus memberikan on lagi. RoleConfiguration UpdateScraper

Temukan dan hapus pencakar

Anda dapat menggunakan AWS API atau AWS CLI untuk membuat daftar pencakar di akun Anda atau untuk menghapusnya.

catatan

Pastikan Anda menggunakan versi terbaru AWS CLI atau SDK. Versi terbaru memberi Anda fitur dan fungsionalitas terbaru, serta pembaruan keamanan. Atau, gunakan AWS CloudShell, yang selalu memberikan pengalaman baris up-to-date perintah, secara otomatis.

Untuk mencantumkan semua pencakar di akun Anda, gunakan operasi ListScrapersAPI.

Atau, dengan AWS CLI, hubungi:

aws amp list-scrapers

ListScrapersmengembalikan semua pencakar di akun Anda, misalnya:

{ "scrapers": [ { "scraperId": "s-1234abcd-56ef-7890-abcd-1234ef567890", "arn": "arn:aws:aps:aws-region:123456789012:scraper/s-1234abcd-56ef-7890-abcd-1234ef567890", "roleArn": "arn:aws:iam::123456789012:role/aws-service-role/AWSServiceRoleForAmazonPrometheusScraper_1234abcd-2931", "status": { "statusCode": "DELETING" }, "createdAt": "2023-10-12T15:22:19.014000-07:00", "lastModifiedAt": "2023-10-12T15:55:43.487000-07:00", "tags": {}, "source": { "vpcConfiguration": { "securityGroupIds": [ "sg-1234abcd5678ef90" ], "subnetIds": [ "subnet-abcd1234ef567890", "subnet-1234abcd5678ab90" ] } }, "destination": { "ampConfiguration": { "workspaceArn": "arn:aws:aps:aws-region:123456789012:workspace/ws-1234abcd-5678-ef90-ab12-cdef3456a78" } } } ] }

Untuk menghapus scraper, cari scraper yang ingin Anda hapus, menggunakan ListScrapers operasi, dan kemudian gunakan DeleteScraperoperasi untuk menghapusnya. scraperId

Atau, dengan AWS CLI, hubungi:

aws amp delete-scraper --scraper-id scraperId

Metrik dikumpulkan dari Amazon MSK

Saat Anda berintegrasi dengan Amazon MSK, kolektor Layanan Terkelola Amazon untuk Prometheus secara otomatis mengikis metrik berikut:

Metrik Deskripsi/Tujuan

jmx_config_reload_failure_total

Jumlah total eksportir JMX gagal memuat ulang file konfigurasinya.

jmx_scrape_duration_seconds

Waktu yang dibutuhkan untuk mengikis metrik JMX dalam hitungan detik untuk siklus pengumpulan saat ini.

jmx_scrape_error

Menunjukkan apakah terjadi kesalahan selama pengikisan metrik JMX (1 = kesalahan, 0 = sukses).

java_lang_memory_ _digunakan HeapMemoryUsage

Jumlah memori heap (dalam byte) yang saat ini digunakan oleh JVM.

Java_lang_memory_ _max HeapMemoryUsage

Jumlah maksimum memori heap (dalam byte) yang dapat digunakan untuk manajemen memori.

java_lang_memory_ _digunakan NonHeapMemoryUsage

Jumlah memori non-heap (dalam byte) yang saat ini digunakan oleh JVM.

Kafka_cluster_partition_value

Status atau nilai saat ini terkait dengan partisi cluster Kafka, dipecah berdasarkan ID partisi dan topik.

kafka_consumer_consumer_coordinator_metrics_assigned_partitions

Jumlah partisi yang saat ini ditugaskan untuk konsumen ini.

kafka_consumer_consumer_coordinator_metrics_commit_latency_avg

Rata-rata waktu yang dibutuhkan untuk melakukan offset dalam milidetik.

kafka_consumer_consumer_coordinator_metrics_commit_rate

Jumlah komit offset per detik.

kafka_consumer_consumer_coordinator_metrics_failed_rebalance_total

Jumlah total rebalances kelompok konsumen yang gagal.

kafka_consumer_consumer_coordinator_metrics_last_heartbeat_seconds_ago

Jumlah detik sejak detak jantung terakhir dikirim ke koordinator.

kafka_consumer_consumer_coordinator_metrics_rebalance_latency_avg

Rata-rata waktu yang dibutuhkan untuk menyeimbangkan kembali kelompok konsumen dalam milidetik.

kafka_consumer_consumer_coordinator_metrics_rebalance_total

Jumlah total penyeimbangan kembali kelompok konsumen.

kafka_consumer_consumer_fetch_manager_metrics_bytes_consumed_rate

Jumlah rata-rata byte yang dikonsumsi per detik oleh konsumen.

kafka_consumer_consumer_fetch_manager_metrics_fetch_latency_avg

Rata-rata waktu yang dibutuhkan untuk permintaan pengambilan dalam milidetik.

kafka_consumer_consumer_fetch_manager_metrics_fetch_rate

Jumlah permintaan pengambilan per detik.

kafka_consumer_consumer_fetch_manager_metrics_records_consumed_rate

Rata-rata jumlah catatan yang dikonsumsi per detik.

kafka_consumer_consumer_fetch_manager_metrics_records_lag_max

Kelambatan maksimum dalam hal jumlah catatan untuk partisi apa pun di konsumen ini.

kafka_consumer_consumer_metrics_connection_count

Jumlah koneksi aktif saat ini.

kafka_consumer_consumer_metrics_incoming_byte_rate

Jumlah rata-rata byte yang diterima per detik dari semua server.

kafka_consumer_consumer_metrics_last_poll_seconds_ago

Jumlah detik sejak panggilan polling konsumen terakhir ().

kafka_consumer_consumer_metrics_request_rate

Jumlah permintaan yang dikirim per detik.

kafka_consumer_consumer_metrics_response_rate

Jumlah tanggapan yang diterima per detik.

kafka_consumer_group_ _Nilai ConsumerLagMetrics

Nilai lag konsumen saat ini untuk kelompok konsumen, menunjukkan seberapa jauh di belakang konsumen.

kafka_controller_ _Nilai KafkaController

Keadaan atau nilai pengontrol Kafka saat ini (1 = pengontrol aktif, 0 = tidak aktif).

kafka_controller_ _Hitung ControllerEventManager

Jumlah total peristiwa pengontrol yang diproses.

kafka_controller_ ControllerEventManager _Berarti

Rata-rata (rata-rata) waktu yang dibutuhkan untuk memproses peristiwa pengontrol.

kafka_controller_ _ ControllerStats MeanRate

Tingkat rata-rata operasi statistik pengontrol per detik.

kafka_coordinator_group_ _Nilai GroupMetadataManager

Status atau nilai manajer metadata grup saat ini untuk grup konsumen.

kafka_log_ _Hitung LogFlushStats

Jumlah total operasi log flush.

kafka_log_ LogFlushStats _Berarti

Rata-rata (rata-rata) waktu yang dibutuhkan untuk operasi log flush.

kafka_log_ _ LogFlushStats MeanRate

Tingkat rata-rata operasi log flush per detik.

kafka_network_ _Hitung RequestMetrics

Jumlah total permintaan jaringan yang diproses.

kafka_network_ RequestMetrics _Berarti

Rata-rata (rata-rata) waktu yang dibutuhkan untuk memproses permintaan jaringan.

RequestMetricskafka_jaringan_ _ MeanRate

Rata-rata tingkat permintaan jaringan per detik.

Kafka_network_Acceptor_ MeanRate

Tingkat rata-rata koneksi yang diterima per detik.

Kafka_Server_fetch_queue_size

Ukuran antrian permintaan pengambilan saat ini.

Kafka_Server_Produce_Queue_size

Ukuran antrian permintaan produksi saat ini.

Kafka_Server_Request_Queue_size

Ukuran antrian permintaan umum saat ini.

kafka_server_ _Hitung BrokerTopicMetrics

Jumlah total operasi topik broker (pesanin/out, bytes in/out).

kafka_server_ _ BrokerTopicMetrics MeanRate

Tingkat rata-rata operasi topik broker per detik.

kafka_server_ _ BrokerTopicMetrics OneMinuteRate

Tingkat rata-rata pergerakan satu menit dari operasi topik broker.

kafka_server_ _Nilai DelayedOperationPurgatory

Jumlah operasi tertunda saat ini di api penyucian (menunggu untuk diselesaikan).

kafka_server_ _ DelayedFetchMetrics MeanRate

Tingkat rata-rata operasi pengambilan tertunda per detik.

kafka_server_ _Nilai FetcherLagMetrics

Nilai lag saat ini untuk utas pengambil replika (seberapa jauh di belakang pemimpin).

kafka_server_ _ FetcherStats MeanRate

Tingkat rata-rata operasi fetcher per detik.

kafka_server_ _Nilai ReplicaManager

Status atau nilai manajer replika saat ini.

kafka_server_ _ ReplicaManager MeanRate

Tingkat rata-rata operasi manajer replika per detik.

kafka_server_ _byte_rate LeaderReplication

Tingkat byte direplikasi per detik untuk partisi di mana broker ini adalah pemimpin.

kafka_server_group_coordinator_metrics_group_completed_rebalance_count

Jumlah total penyeimbangan kembali kelompok konsumen yang diselesaikan.

kafka_server_group_coordinator_metrics_offset_commit_count

Jumlah total operasi komit offset.

kafka_server_group_coordinator_metrics_offset_commit_rate

Tingkat operasi komit offset per detik.

kafka_server_socket_server_metrics_connection_count

Jumlah koneksi aktif saat ini.

kafka_server_socket_server_metrics_connection_creation_rate

Tingkat pembuatan koneksi baru per detik.

kafka_server_socket_server_metrics_connection_close_rate

Tingkat penutupan koneksi per detik.

kafka_server_socket_server_metrics_failed_authentication_total

Jumlah total upaya otentikasi yang gagal.

kafka_server_socket_server_metrics_incoming_byte_rate

Tingkat byte masuk per detik.

kafka_server_socket_server_metrics_outgoing_byte_rate

Tingkat byte keluar per detik.

kafka_server_socket_server_metrics_request_rate

Tingkat permintaan per detik.

kafka_server_socket_server_metrics_response_rate

Tingkat respons per detik.

kafka_server_socket_server_metrics_network_io_rate

Tingkat I/O operasi jaringan per detik.

kafka_server_socket_server_metrics_io_ratio

Sebagian kecil waktu yang dihabiskan dalam I/O operasi.

kafka_server_controller_channel_metrics_connection_count

Jumlah koneksi aktif saat ini untuk saluran pengontrol.

kafka_server_controller_channel_metrics_incoming_byte_rate

Tingkat byte masuk per detik untuk saluran pengontrol.

kafka_server_controller_channel_metrics_outgoing_byte_rate

Tingkat byte keluar per detik untuk saluran pengontrol.

kafka_server_controller_channel_metrics_request_rate

Tingkat permintaan per detik untuk saluran pengontrol.

kafka_server_replica_fetcher_metrics_connection_count

Jumlah koneksi aktif saat ini untuk pengambil replika.

kafka_server_replica_fetcher_metrics_incoming_byte_rate

Tingkat byte masuk per detik untuk replika fetcher.

kafka_server_replica_fetcher_metrics_request_rate

Tingkat permintaan per detik untuk replika fetcher.

kafka_server_replica_fetcher_metrics_failed_authentication_total

Jumlah total upaya otentikasi gagal untuk pengambil replika.

kafka_server_ _Hitung ZooKeeperClientMetrics

Jumlah total operasi ZooKeeper klien.

kafka_server_ ZooKeeperClientMetrics _Berarti

Rata-rata latensi operasi ZooKeeper klien.

kafka_server_ _Nilai KafkaServer

Status atau nilai server Kafka saat ini (biasanya menunjukkan server sedang berjalan).

node_cpu_seconds_total

Total detik yang CPUs dihabiskan dalam setiap mode (pengguna, sistem, idle, dll.), Diuraikan berdasarkan CPU dan mode.

node_disk_read_bytes_total

Jumlah total byte yang berhasil dibaca dari disk, dipecah berdasarkan perangkat.

node_disk_reads_completed_total

Jumlah total pembacaan berhasil diselesaikan untuk disk, dipecah berdasarkan perangkat.

node_disk_writes_completed_total

Jumlah total penulisan berhasil diselesaikan untuk disk, dipecah berdasarkan perangkat.

node_disk_written_bytes_total

Jumlah total byte yang berhasil ditulis ke disk, dipecah berdasarkan perangkat.

node_filesystem_avail_bytes

Ruang sistem file yang tersedia dalam byte untuk pengguna non-root, dipecah berdasarkan perangkat dan titik pemasangan.

node_filesystem_size_bytes

Ukuran total sistem file dalam byte, dipecah berdasarkan perangkat dan titik pemasangan.

node_filesystem_free_bytes

Ruang sistem file gratis dalam byte, dipecah berdasarkan perangkat dan titik pemasangan.

node_filesystem_files

Jumlah total node file (inode) pada sistem file, dipecah berdasarkan perangkat dan titik pemasangan.

node_filesystem_files_free

Jumlah node file gratis (inode) pada sistem file, dipecah berdasarkan perangkat dan titik pemasangan.

node_filesystem_readonly

Menunjukkan apakah sistem file dipasang hanya-baca (1 = hanya-baca, 0 = baca-tulis).

node_filesystem_device_error

Menunjukkan apakah terjadi kesalahan saat mendapatkan statistik sistem file (1 = kesalahan, 0 = sukses).

Batasan

Integrasi MSK Amazon saat ini dengan Amazon Managed Service untuk Prometheus memiliki batasan berikut:

  • Hanya didukung untuk klaster Amazon MSK Provisioned (tidak tersedia untuk Amazon MSK Tanpa Server)

  • Tidak didukung untuk klaster MSK Amazon dengan akses publik diaktifkan dalam kombinasi dengan KRaft mode metadata

  • Tidak didukung untuk broker Amazon MSK Express

  • Saat ini mendukung pemetaan 1:1 antara kluster MSK Amazon dan Layanan Terkelola Amazon untuk kolektor/ruang kerja Prometheus