Terjemahan disediakan oleh mesin penerjemah. Jika konten terjemahan yang diberikan bertentangan dengan versi bahasa Inggris aslinya, utamakan versi bahasa Inggris.
Memilih infrastruktur penerapan untuk model klasifikasi gambar
Sebaiknya pilih opsi penerapan terbaik untuk titik akhir klasifikasi gambar melalui pertimbangan tiga aspek utama:
-
Waktu respons titik akhir yang diperlukan
-
Kompleksitas solusi dan sumber daya manusia yang tersedia
-
Keterbatasan biaya
Waktu respons titik akhir dan batasan biaya lebih mudah diukur dan lebih baik ditentukan terlebih dahulu. Kendala kompleksitas solusi tergantung pada penyeimbangan waktu dan sumber daya staf. Solusi paling tidak kompleks melibatkan penggunaan Amazon Rekognition atau Amazon Rekognition Custom Labels. Model visi komputer besar, ketika ditempatkan di belakang instans Amazon API Gateway dan sebuah AWS Lambda fungsi, dapat memakan waktu hingga 1 detik untuk merespons. Amazon SageMaker AI Canvas juga dapat menerapkan titik akhir yang merespons dalam 1 detik atau kurang, dengan tingkat upaya pengembangan yang rendah.
Model klasifikasi gambar dapat ditempatkan dalam AWS Lambda fungsi dengan menggunakan gambar Docker. Ketika fungsi Lambda dipanggil, mungkin ada start dingin yang menunda respons titik akhir karena waktu pemuatan model. Anda juga dapat menggunakan opsi konkurensi yang disediakan untuk membuat fungsi Lambda merespons dalam waktu kurang dari 1 detik, untuk tingkat konkurensi tertentu atau sesuai dengan kebijakan auto-scaling.
Waktu respons model bervariasi berdasarkan waktu pemrosesan model dan waktu respons titik akhir yang diterapkan. Berikut ini adalah waktu respons untuk setiap opsi penerapan, yang diatur oleh upaya implementasi:
-
Upaya terendah - Amazon Rekognition, Amazon Rekognition Custom Labels, SageMaker dan AI Canvas adalah opsi penerapan upaya terendah. Waktu respons untuk solusi ini dapat berkisar dari kurang dari satu detik hingga jam.
-
Upaya menengah — SageMaker AI adalah opsi penerapan upaya menengah. SageMaker Titik akhir real-time AI dapat merespons dalam waktu kurang dari satu detik, unit inferensi tanpa server SageMaker AI dapat merespons dalam beberapa detik, dan transformasi batch SageMaker AI biasanya merespons dalam hitungan jam.
-
Upaya tertinggi - Titik akhir dan AWS Lambda fungsi EKS kustom Amazon ECS atau Amazon adalah opsi penerapan upaya tertinggi. Waktu respons untuk pekerjaan pelatihan khusus ini dapat berkisar dari kurang dari satu detik hingga jam. Untuk waktu respons kurang dari satu detik, Anda dapat menyediakan konkurensi untuk fungsi Lambda.
Solusi upaya tertinggi lebih cenderung memiliki biaya infrastruktur yang lebih rendah. Namun, bandingkan penghematan dengan biaya tambahan waktu pemeliharaan untuk para insinyur.
Pola penyebaran umum adalah memiliki fungsi API gateway dan Lambda di depan panggilan titik akhir, seperti yang ditunjukkan pada gambar berikut. Ini lebih disukai dalam situasi di mana respons inferensi dari Amazon Rekognition perlu diproses lebih lanjut sebelum dikirim kembali ke klien panggilan melalui Amazon Gateway. API
Namun, situasi di mana pemrosesan cukup berat mungkin memerlukan alur kerja yang berbeda untuk mengurangi penalti latensi jaringan yang dihasilkan dari fungsi Lambda pemrosesan. Untuk latensi yang sangat rendah, fungsi Lambda dapat dihilangkan dengan biaya memaksa Rekognition Amazon dalam panggilan Gateway. API API
Untuk sistem klasifikasi gambar yang dapat mentolerir latensi beberapa detik, gunakan titik akhir inferensi tanpa server SageMaker AI. Untuk inferensi dan AWS Lambda penerapan tanpa server SageMaker AI, ada batas waktu eksekusi 15 menit untuk setiap pemanggilan. Ini adalah margin keamanan yang besar untuk model klasifikasi gambar paling populer.
Untuk klasifikasi gambar offline atau untuk aplikasi di mana waktu respons cepat tidak penting, Anda dapat menggunakan inferensi batch dengan Amazon Rekognition. Untuk informasi selengkapnya, lihat Pemrosesan gambar batch dengan Label Kustom Amazon Rekognition