Terjemahan disediakan oleh mesin penerjemah. Jika konten terjemahan yang diberikan bertentangan dengan versi bahasa Inggris aslinya, utamakan versi bahasa Inggris.
Mengkonfigurasi log Amazon ECS untuk throughput tinggi
Untuk skenario throughput log tinggi, sebaiknya gunakan driver awsfirelens log dengan FireLens danFluent Bit. Fluent Bitadalah prosesor log ringan yang efisien dengan sumber daya dan dapat menangani jutaan catatan log. Namun, mencapai kinerja optimal pada skala memerlukan penyetelan konfigurasinya.
Bagian ini mencakup teknik Fluent Bit optimasi lanjutan untuk menangani throughput log tinggi sambil menjaga stabilitas sistem dan memastikan tidak ada kehilangan data.
Untuk informasi tentang cara menggunakan file konfigurasi kustom dengan FireLens, lihatGunakan file konfigurasi khusus. Untuk contoh tambahan, lihat FireLens contoh Amazon ECS
catatan
Beberapa opsi konfigurasi di bagian ini, seperti workers danthreaded, memerlukan AWS Fluent Bit versi 3 atau yang lebih baru. Untuk informasi tentang versi yang tersedia, lihat AWS untuk rilis Fluent Bit
Gunakan buffering sistem file
Secara default, Fluent Bit buffer semua data dalam memori. Ketika data dicerna lebih cepat daripada yang dapat dibilas ke output, buffer terisi. Setelah penuh, plugin input berhenti hingga ruang buffer tersedia, yang dapat menyebabkan tekanan balik dan memperlambat aplikasi Anda.
Untuk skenario throughput tinggi, sebaiknya gunakan buffering sistem file. Untuk informasi selengkapnya tentang cara Fluent Bit mengelola buffering dan penyimpanan, lihat Buffering dan Storage
Filesystem buffering memberikan keuntungan sebagai berikut:
-
Kapasitas buffer yang lebih besar — Ruang disk biasanya lebih melimpah daripada memori.
-
Persistensi — Data buffered bertahan Fluent Bit restart.
-
Degradasi anggun — Selama kegagalan output, data terakumulasi pada disk daripada menyebabkan kelelahan memori.
Untuk mengaktifkan buffering sistem file, sediakan file konfigurasi khusus. Fluent Bit Contoh berikut menunjukkan konfigurasi yang disarankan:
[SERVICE] # Flush logs every 1 second Flush 1 # Wait 120 seconds during shutdown to flush remaining logs Grace 120 # Directory for filesystem buffering storage.path /var/log/flb-storage/ # Limit chunks stored 'up' in memory (reduce for memory-constrained environments) storage.max_chunks_up 32 # Flush backlog chunks to destinations during shutdown (prevents log loss) storage.backlog.flush_on_shutdown On [INPUT] Name forward unix_path /var/run/fluent.sock # Run input in separate thread to prevent blocking threaded true # Enable filesystem buffering for persistence storage.type filesystem [OUTPUT] Name cloudwatch_logs Match * regionus-west-2log_group_name/aws/ecs/my-applog_stream_name $(ecs_task_id) # Use multiple workers for parallel processing workers 2 # Retry failed flushes up to 15 times retry_limit 15 # Maximum disk space for buffered data for this output storage.total_limit_size 10G
Parameter konfigurasi kunci:
storage.path-
Direktori tempat Fluent Bit menyimpan potongan buffer pada disk.
storage.backlog.flush_on_shutdown-
Saat diaktifkan, Fluent Bit mencoba untuk menghapus semua potongan sistem file backlog ke tujuan mereka selama shutdown. Ini membantu memastikan pengiriman data sebelum Fluent Bit berhenti, tetapi dapat meningkatkan waktu shutdown.
storage.max_chunks_up-
Jumlah potongan yang tersisa dalam memori. Defaultnya adalah 128 chunks, yang dapat mengkonsumsi 500 MB+memori karena setiap potongan dapat menggunakan hingga 4-5 MB. Dalam lingkungan yang dibatasi memori, turunkan nilai ini. Misalnya, jika Anda memiliki 50 MB yang tersedia untuk buffering, atur ini menjadi 8-10 potongan.
storage.type filesystem-
Mengaktifkan penyimpanan sistem file untuk plugin input. Terlepas dari namanya, Fluent Bit digunakan
mmapuntuk memetakan potongan ke memori dan disk, memberikan ketekunan tanpa mengorbankan kinerja. threaded true-
Menjalankan input di utasnya sendiri, terpisah dari Fluent Bit loop acara utama. Ini mencegah input lambat memblokir seluruh pipa.
Optimalkan konfigurasi keluaran
Masalah jaringan, pemadaman layanan, dan pembatasan tujuan dapat mencegah log dikirimkan. Konfigurasi output yang tepat memastikan ketahanan tanpa kehilangan data.
Ketika output flush gagal, Fluent Bit dapat mencoba kembali operasi. Parameter berikut mengontrol perilaku coba lagi:
retry_limit-
Upaya coba lagi maksimum sebelum menjatuhkan catatan. Default-nya adalah 1. Untuk lingkungan produksi, kami merekomendasikan 15 atau lebih tinggi, yang mencakup beberapa menit pemadaman dengan backoff eksponensial.
scheduler.base-
Detik minimum antara percobaan ulang. Kami merekomendasikan 10 detik.
scheduler.cap-
Detik maksimum antara percobaan ulang saat menggunakan backoff eksponensial. Kami merekomendasikan 60 detik.
workers-
Jumlah thread untuk pemrosesan output paralel. Beberapa pekerja memungkinkan pembilasan bersamaan, meningkatkan throughput saat memproses banyak potongan.
GraceParameter di [SERVICE] bagian mengatur waktu Fluent Bit menunggu selama shutdown untuk menyiram data buffer. GracePeriode harus dikoordinasikan dengan wadah. stopTimeout Pastikan bahwa stopTimeout melebihi Grace periode untuk memungkinkan Fluent Bit untuk menyelesaikan pembilasan sebelum menerima. SIGKILL Misalnya, jika Grace 120 detik, atur stopTimeout ke 150 detik.
Contoh berikut menunjukkan Fluent Bit konfigurasi lengkap dengan semua pengaturan yang direkomendasikan untuk skenario throughput tinggi:
[SERVICE] # Flush logs every 1 second Flush 1 # Wait 120 seconds during shutdown to flush remaining logs Grace 120 # Directory for filesystem buffering storage.path /var/log/flb-storage/ # Limit chunks stored 'up' in memory (reduce for memory-constrained environments) storage.max_chunks_up 32 # Flush backlog chunks to destinations during shutdown (prevents log loss) storage.backlog.flush_on_shutdown On # Minimum seconds between retries scheduler.base 10 # Maximum seconds between retries (exponential backoff cap) scheduler.cap 60 [INPUT] Name forward unix_path /var/run/fluent.sock # Run input in separate thread to prevent blocking threaded true # Enable filesystem buffering for persistence storage.type filesystem [OUTPUT] Name cloudwatch_logs Match * regionus-west-2log_group_name/aws/ecs/my-applog_stream_name $(ecs_task_id) # Use multiple workers for parallel processing workers 2 # Retry failed flushes up to 15 times retry_limit 15 # Maximum disk space for buffered data for this output storage.total_limit_size 10G
Gunakan pencatatan multi-tujuan untuk keandalan
Mengirim log ke beberapa tujuan menghilangkan satu titik kegagalan. Misalnya, jika CloudWatch Log mengalami pemadaman, log masih mencapai Amazon S3.
Pencatatan multi-tujuan memberikan manfaat berikut. Plugin keluaran Amazon S3 juga mendukung opsi kompresi seperti format gzip dan Parket, yang dapat mengurangi biaya penyimpanan. Untuk informasi selengkapnya, lihat kompresi S3
Pencatatan multi-tujuan dapat memberikan manfaat berikut:
-
Redundansi — Jika satu tujuan gagal, log masih mencapai yang lain.
-
Pemulihan — Rekonstruksi kesenjangan dalam satu sistem dari yang lain.
-
Daya Tahan - Arsipkan log di Amazon S3 untuk retensi jangka panjang.
-
Pengoptimalan biaya — Simpan log terbaru dalam layanan kueri cepat seperti CloudWatch Log dengan retensi lebih pendek, sambil mengarsipkan semua log ke penyimpanan Amazon S3 berbiaya lebih rendah untuk retensi jangka panjang.
Fluent BitKonfigurasi berikut mengirimkan log ke CloudWatch Log dan Amazon S3:
[OUTPUT] Name cloudwatch_logs Match * regionus-west-2log_group_name/aws/ecs/my-applog_stream_name $(ecs_task_id) workers 2 retry_limit 15 [OUTPUT] Name s3 Match * bucketmy-logs-bucketregionus-west-2total_file_size 100M s3_key_format /fluent-bit-logs/$(ecs_task_id)/%Y%m%d/%H/%M/$UUID upload_timeout 10m # Maximum disk space for buffered data for this output storage.total_limit_size 5G
Kedua output menggunakan Match * pola yang sama, sehingga semua catatan dikirim ke kedua tujuan secara independen. Selama pemadaman satu tujuan, log terus mengalir ke tujuan lainnya sementara flush yang gagal menumpuk di buffer sistem file untuk dicoba lagi nanti.
Gunakan logging berbasis file dengan plugin input ekor
Untuk skenario throughput tinggi di mana kehilangan log merupakan masalah penting, Anda dapat menggunakan pendekatan alternatif: minta aplikasi Anda menulis log ke file di disk, dan konfigurasikan Fluent Bit untuk membacanya menggunakan plugin tail input. Pendekatan ini sepenuhnya melewati lapisan driver logging Docker.
Pencatatan berbasis file dengan plugin ekor memberikan manfaat berikut:
-
Offset tracking - Plugin ekor dapat menyimpan offset file dalam file database (menggunakan
DBopsi), memberikan daya tahan di seluruh Fluent Bit restart. Ini membantu mencegah kehilangan log selama restart kontainer. -
Buffering tingkat input - Anda dapat mengonfigurasi batas buffer memori langsung pada plugin input menggunakan
Mem_Buf_Limit, memberikan kontrol yang lebih terperinci atas penggunaan memori. -
Menghindari overhead Docker — Log masuk langsung dari file ke Fluent Bit tanpa melewati buffer log Docker.
Untuk menggunakan pendekatan ini, aplikasi Anda harus menulis log ke file alih-alihstdout. Baik wadah aplikasi dan Fluent
Bit wadah memasang volume bersama tempat file log disimpan.
Contoh berikut menunjukkan konfigurasi input ekor dengan praktik terbaik:
[INPUT] Name tail # File path or glob pattern to tail Path/var/log/app.log# Database file for storing file offsets (enables resuming after restart) DB /var/log/flb_tail.db # when true, controls that only fluent-bit will access the database (improves performance) DB.locking true # Skip long lines instead of skipping the entire file Skip_Long_Lines On # How often (in seconds) to check for new files matching the glob pattern Refresh_Interval 10 # Extra seconds to monitor a file after rotation to account for pending flush Rotate_Wait 30 # Maximum size of the buffer for a single line Buffer_Max_Size 10MB # Initial allocation size for reading file data Buffer_Chunk_Size 1MB # Maximum memory buffer size (tail pauses when full) Mem_Buf_Limit 75MB
Saat menggunakan plugin input ekor, pertimbangkan hal berikut:
-
Terapkan rotasi log untuk log aplikasi Anda untuk mencegah kelelahan disk. Pantau metrik volume yang mendasarinya untuk mengukur kinerja.
-
Pertimbangkan pengaturan seperti
Ignore_Older,Read_from_Head, dan parser multiline berdasarkan format log Anda.
Untuk informasi selengkapnya, lihat Ekor
Log langsung ke FireLens
Ketika driver awsfirelens log ditentukan dalam definisi tugas, agen penampung Amazon ECS menyuntikkan variabel lingkungan berikut ke dalam wadah:
FLUENT_HOST-
Alamat IP yang ditetapkan ke FireLens wadah.
catatan
Jika Anda menggunakan EC2 dengan mode
bridgejaringan, variabelFLUENT_HOSTlingkungan dalam wadah aplikasi Anda dapat menjadi tidak akurat setelah restart wadah router FireLens log (wadah denganfirelensConfigurationobjek dalam definisi kontainer). Ini karenaFLUENT_HOSTmerupakan alamat IP dinamis dan dapat berubah setelah restart. Logging langsung dari wadah aplikasi ke alamatFLUENT_HOSTIP dapat mulai gagal setelah alamat berubah. Untuk informasi selengkapnya tentang memulai ulang kontainer individual, lihat. Mulai ulang kontainer individual dalam tugas Amazon ECS dengan kebijakan restart kontainer FLUENT_PORT-
Port tempat protokol Fluent Forward mendengarkan.
Anda dapat menggunakan variabel lingkungan ini untuk log langsung ke router Fluent
Bit log dari kode aplikasi Anda menggunakan protokol Fluent Forward, alih-alih menulis kestdout. Pendekatan ini melewati lapisan driver logging Docker, yang memberikan manfaat berikut:
-
Latensi yang lebih rendah - Log langsung masuk Fluent Bit tanpa melewati infrastruktur logging Docker.
-
Pencatatan terstruktur — Kirim data log terstruktur secara native tanpa overhead encoding JSON.
-
Kontrol yang lebih baik — Aplikasi Anda dapat menerapkan buffering sendiri dan logika penanganan kesalahan.
Pustaka logger Fluent berikut mendukung protokol Fluent Forward dan dapat digunakan untuk mengirim log langsung ke: Fluent Bit
-
Go — fluent-logger-golang
-
Python – fluent-logger-python
-
Jawa — fluent-logger-java
-
Node.js – fluent-logger-node
-
Ruby – fluent-logger-ruby
Konfigurasikan batas buffer Docker
Saat Anda membuat definisi tugas, Anda dapat menentukan jumlah baris log yang di-buffer dalam memori dengan menentukan nilainya. log-driver-buffer-limit Ini mengontrol buffer antara Docker dan. Fluent Bit Untuk informasi selengkapnya, lihat Driver logging fluentd
Gunakan opsi ini ketika ada throughput tinggi, karena Docker mungkin kehabisan memori buffer dan membuang pesan buffer sehingga dapat menambahkan pesan baru.
Pertimbangkan hal berikut saat menggunakan opsi ini:
-
Opsi ini didukung pada jenis EC2 dan Fargate dengan
1.4.0versi platform atau yang lebih baru. -
Opsi ini hanya valid ketika
logDriverdisetel keawsfirelens. -
Batas buffer default adalah baris
1048576log. -
Batas buffer harus lebih besar dari atau sama dengan
0dan kurang dari garis536870912log. -
Jumlah maksimum memori yang digunakan untuk buffer ini adalah produk dari ukuran setiap baris log dan ukuran buffer. Misalnya, jika baris log aplikasi rata-rata
2KiB, batas buffer 4096 akan menggunakan paling banyak8MiB. Jumlah total memori yang dialokasikan pada tingkat tugas harus lebih besar dari jumlah memori yang dialokasikan untuk semua wadah selain buffer memori driver log.
Definisi tugas berikut menunjukkan cara mengkonfigurasilog-driver-buffer-limit:
{ "containerDefinitions": [ { "name": "my_service_log_router", "image": "public.ecr.aws/aws-observability/aws-for-fluent-bit:3", "cpu": 0, "memoryReservation": 51, "essential": true, "firelensConfiguration": { "type": "fluentbit" } }, { "essential": true, "image": "public.ecr.aws/docker/library/httpd:latest", "name": "app", "logConfiguration": { "logDriver": "awsfirelens", "options": { "Name": "firehose", "region": "us-west-2", "delivery_stream": "my-stream", "log-driver-buffer-limit": "52428800" } }, "dependsOn": [ { "containerName": "my_service_log_router", "condition": "START" } ], "memoryReservation": 100 } ] }