Terjemahan disediakan oleh mesin penerjemah. Jika konten terjemahan yang diberikan bertentangan dengan versi bahasa Inggris aslinya, utamakan versi bahasa Inggris.
Edge AI dan distribusi inferensi global
Meskipun inferensi berbasis cloud melayani sebagian besar kasus penggunaan perusahaan, skenario tertentu memerlukan respons real-time, kemampuan offline, atau kedekatan dengan sumber data atau pengguna. Untuk kasus ini, edge AI, yang menjalankan logika AI di atau di dekat perangkat, menawarkan pelengkap yang kuat untuk arsitektur cloud tanpa server.
AWS mendukung edge AI melalui dua teknologi utama tanpa server:
-
Lambda @Edge menjalankan logika inferensi secara global di lokasi AWS tepi dengan menggunakan Amazon. CloudFront
Contoh - Situs e-commerce global menggunakan fungsi Lambda @Edge untuk mempersonalisasi konten beranda berdasarkan lokasi dan bahasa pengguna. Hasilnya, ia memberikan pengalaman yang disesuaikan langsung dari lokasi CloudFront tepi terdekat.
-
AWS IoT Greengrassmemungkinkan eksekusi AI lokal pada perangkat yang terhubung.
Contoh — Alat pintar menggunakan model yang digunakan AWS IoT Greengrass untuk diagnostik waktu nyata, menyinkronkan wawasan ke cloud saat diperlukan, atau saat konektivitas memungkinkan.
Bersama-sama, teknologi ini memperluas jangkauan AI tanpa server ke latensi rendah, sensitif bandwidth, atau lingkungan offline, dan basis pengguna yang didistribusikan secara global.
Lambda @Edge: Inferensi global pada lapisan CDN
Dengan menggunakan Lambda @Edge, pengembang dapat menjalankan AWS Lambda fungsi di lokasi CloudFront tepi. Pendekatan ini mengurangi latensi bagi pengguna akhir dan memungkinkan pengalaman AI yang sadar konteks dan sangat cepat.
Kemampuan utama Lambda @Edge meliputi:
-
Menjalankan logika pada lapisan CDN sebagai respons terhadap CloudFront peristiwa seperti permintaan penampil dan respons asal
-
Menyesuaikan konten seperti personalisasi halaman web dan rekomendasi sesuai dengan pengguna, lokasi, dan perangkat
-
Mengintegrasikan inferensi AI langsung ke pengiriman konten tanpa merutekan ke pusat Wilayah AWS
-
Menyebarkan secara global tanpa penyediaan infrastruktur
Contoh kasus penggunaan Lambda @Edge
Lambda @Edge mengaktifkan kasus penggunaan kunci berikut:
-
Personalisasi e-niaga - Memberikan rekomendasi produk dinamis berdasarkan ID pengguna dan perilaku.
-
Streaming media — Sesuaikan rekomendasi dan kontrol orang tua berdasarkan kebijakan regional.
-
Kampanye pemasaran — Sesuaikan spanduk, konten, dan penawaran untuk setiap lokasi.
-
Pengalaman pengguna multibahasa (UX) — Mendeteksi lokasi dan bahasa pengguna untuk menyajikan konten yang diterjemahkan Amazon Bedrock LLM secara inline.
Dengan menempatkan logika inferensi sedekat mungkin dengan pengguna, Lambda @Edge mendukung pengiriman front-end berbasis AI yang sangat personal, yang ideal untuk aplikasi konsumen skala tinggi.
Lambda @Edge sering digunakan bersama-sama dengan Amazon Bedrock atau SageMaker Serverless Inference dengan menggunakan strategi routing dan caching asynchronous untuk menggabungkan kecepatan dengan kecerdasan.
AWS IoT Greengrass: Inferensi lokal di tepi
AWS IoT Greengrass adalah runtime ringan yang dapat digunakan pelanggan untuk menjalankan fungsi Lambda, inferensi ML, dan kode khusus. Ini beroperasi pada perangkat tepi seperti pengontrol industri, kamera, perangkat medis, atau peralatan pintar.
Kemampuan utama AWS IoT Greengrass meliputi yang berikut:
-
Menjalankan fungsi Lambda secara lokal bahkan ketika terputus dari cloud.
-
Paket model ML (melalui SageMaker atau pelatihan khusus) untuk melakukan inferensi langsung pada perangkat.
-
Merampingkan pembaruan melalui over-the-air penerapan dan manajemen konfigurasi yang aman.
-
Terintegrasi dengan Layanan AWS (misalnya, Amazon S3, AWS IoT Core, dan CloudWatch Amazon) untuk pemantauan terpusat.
Contoh kasus penggunaan AWS IoT Greengrass
AWS IoT Greengrass memungkinkan aplikasi inferensi di edge di berbagai industri, seperti berikut ini:
-
Manufaktur — Mendeteksi cacat dari input kamera tanpa perjalanan pulang pergi cloud.
-
Perawatan Kesehatan — Memantau pasien dan melakukan diagnosa di klinik dengan konektivitas intermiten.
-
Pertanian — Klasifikasi kondisi tanaman menggunakan rekaman drone.
-
Energi — Memantau jaringan pipa dan turbin menggunakan model deteksi anomali.
AWS IoT Greengrass memungkinkan beban kerja ini menjadi cepat, tangguh, dan independen dari latensi cloud, sambil tetap menyediakan manajemen sisi cloud, observabilitas, dan sinkronisasi. Dengan menggunakan AWS IoT Greengrass, pengembang dapat menerapkan fungsi Lambda yang sama yang digunakan di cloud, menciptakan kontinuitas di seluruh sistem terpusat dan terdistribusi.
AI global dan lokal: Strategi eksekusi berjenjang
Perusahaan dapat menggabungkan Lambda @Edge dan AWS IoT Greengrass membuat sistem AI edge berjenjang. Arsitektur hybrid ini memungkinkan keputusan cerdas dibuat pada lapisan yang tepat, tergantung pada sensitivitas latensi, ukuran model, konektivitas, dan persyaratan kepatuhan. Tabel berikut menjelaskan tingkatan, AWS teknologi, dan peran dalam arsitektur ini.
Tingkat |
AWS teknologi |
Peran teknologi |
|---|---|---|
Tepi perangkat |
AWS IoT Greengrass |
|
Tepi jaringan |
Lambda@Edge |
|
Inti awan |
Amazon Bedrock, Inferensi SageMaker Tanpa Server Amazon, dan AWS Step Functions |
|
Kesimpulan dari edge AI
Edge AI adalah evolusi alami arsitektur tanpa server, menghadirkan inferensi latensi rendah, personalisasi kontekstual, dan ketahanan terhadap tantangan konektivitas. Dengan AWS IoT Greengrass dan Lambda @Edge, organisasi dapat mencapai hal berikut:
-
Pengembang dapat memperluas prinsip tanpa server di luar pusat data.
-
Perusahaan dapat menyebarkan dan memelihara jaringan pipa AI lebih dekat dengan pengguna dan sumber data.
-
Logika AI menjadi sadar lokasi, otonom, dan sangat skalabel.
AI menjadi meresap di seluruh sektor, dari kota pintar hingga robotika lapangan hingga pengiriman media global. Untuk mendukung evolusi ini, ini Layanan AWS dapat memainkan peran mendasar dalam membangun aplikasi terdistribusi dan cerdas yang berjalan di mana saja.