Bantu tingkatkan halaman ini
Terjemahan disediakan oleh mesin penerjemah. Jika konten terjemahan yang diberikan bertentangan dengan versi bahasa Inggris aslinya, utamakan versi bahasa Inggris.
Untuk berkontribusi pada panduan pengguna ini, pilih Edit halaman ini pada GitHub tautan yang terletak di panel kanan setiap halaman.
Terjemahan disediakan oleh mesin penerjemah. Jika konten terjemahan yang diberikan bertentangan dengan versi bahasa Inggris aslinya, utamakan versi bahasa Inggris.
Ikhtisar Kecerdasan Buatan (AI) dan Machine Learning (ML) di Amazon EKS
Amazon Elastic Kubernetes Service (EKS) adalah platform Kubernetes terkelola yang memberdayakan organisasi untuk menerapkan, mengelola, dan menskalakan beban kerja AI dan machine learning (ML) dengan fleksibilitas dan kontrol yang tak tertandingi. Dibangun di atas ekosistem Kubernetes open source, EKS memungkinkan Anda memanfaatkan keahlian Kubernetes yang ada, sambil berintegrasi secara mulus dengan alat dan layanan open source. AWS
Baik Anda melatih model skala besar, menjalankan inferensi online real-time, atau menerapkan aplikasi AI generatif, EKS memberikan kinerja, skalabilitas, dan efisiensi biaya yang diminta proyek Anda. AI/ML
Mengapa Memilih EKS untuk AI/ML?
EKS adalah platform Kubernetes terkelola yang membantu Anda menerapkan dan mengelola beban kerja yang kompleks. AI/ML Dibangun di atas ekosistem Kubernetes open source, ia terintegrasi dengan AWS layanan, menyediakan kontrol dan skalabilitas yang diperlukan untuk proyek-proyek lanjutan. Untuk tim yang baru mengenal AI/ML penerapan, keterampilan Kubernetes yang ada ditransfer secara langsung, memungkinkan orkestrasi yang efisien dari beberapa beban kerja.
EKS mendukung segala hal mulai dari kustomisasi sistem operasi hingga penskalaan komputasi, dan fondasi open source mempromosikan fleksibilitas teknologi, melestarikan pilihan untuk keputusan infrastruktur masa depan. Platform ini menyediakan opsi kinerja dan penyetelan yang dibutuhkan AI/ML beban kerja, fitur pendukung seperti:
-
Kontrol klaster penuh untuk menyempurnakan biaya dan konfigurasi tanpa abstraksi tersembunyi
-
Latensi sub-detik untuk beban kerja inferensi waktu nyata dalam produksi
-
Kustomisasi lanjutan seperti multi-instance GPUs, strategi multi-cloud, dan penyetelan tingkat OS
-
Kemampuan untuk memusatkan beban kerja menggunakan EKS sebagai orkestrator terpadu di seluruh jaringan pipa AI/ML
Kasus penggunaan kunci
Amazon EKS menyediakan platform yang kuat untuk berbagai AI/ML beban kerja, mendukung berbagai teknologi dan pola penerapan:
-
Inferensi real-time (online): EKS mendukung prediksi langsung pada data yang masuk, seperti deteksi penipuan, dengan latensi sub-detik menggunakan alat seperti, Triton Inference Server TorchServe,
dan pada instans Amazon Inf1 dan Inf2. KServe EC2 Beban kerja ini mendapat manfaat dari penskalaan dinamis dengan Karpenter dan KEDA, sekaligus memanfaatkan Amazon EFS untuk sharding model di seluruh pod. Amazon ECR Pull Through Cache (PTC) mempercepat pembaruan model, dan volume data Bottlerocket dengan volume yang dioptimalkan Amazon EBS memastikan akses data yang cepat. -
Pelatihan model umum: Organizations memanfaatkan EKS untuk melatih model kompleks pada kumpulan data besar selama periode yang lama menggunakan Kubeflow Training Operator (KRO)
, Ray Serve , dan Torch Distributed Elastic pada instans Amazon EC2 P4d dan Amazon Trn1. EC2 Beban kerja ini didukung oleh penjadwalan batch dengan alat seperti Volcano , Yunikorn , dan Kueue. Amazon EFS memungkinkan berbagi pos pemeriksaan model, dan Amazon S3 menangani import/export model dengan kebijakan siklus hidup untuk manajemen versi. -
Retrieval augmented generation (RAG) pipelines: EKS mengelola chatbot dukungan pelanggan dan aplikasi serupa dengan mengintegrasikan proses pengambilan dan pembuatan. Beban kerja ini sering menggunakan alat seperti Argo Workflows dan Kubeflow untuk orkestrasi, database vektor seperti Pinecone, Weaviate, atau Amazon, dan OpenSearch mengekspos aplikasi ke pengguna melalui Application Load Balancer Controller (LBC). NVIDIA NIM
mengoptimalkan pemanfaatan GPU, sementara Prometheus dan Grafana memantau penggunaan sumber daya. -
Penerapan model AI generatif: Perusahaan menerapkan layanan pembuatan konten real-time di EKS, seperti pembuatan teks atau gambar, menggunakan Ray Serve
, VllM , dan Triton Inference Server di Amazon G5 dan akselerator Inferentia . EC2 Penerapan ini mengoptimalkan kinerja dan pemanfaatan memori untuk model skala besar. JupyterHub memungkinkan pengembangan berulang, Gradio menyediakan antarmuka web sederhana, dan S3 Mountpoint CSI Driver memungkinkan pemasangan bucket S3 sebagai sistem file untuk mengakses file model besar. -
Inferensi Batch (offline): Organizations memproses kumpulan data besar secara efisien melalui pekerjaan terjadwal dengan AWS Batch atau Volcano.
Beban kerja ini sering menggunakan instans Inf1 dan Inf2 untuk chip AWS Inferentia , EC2 instans EC2 Amazon G4dn untuk NVIDIA GPUs T4, atau instans CPU c5 dan c6i, memaksimalkan pemanfaatan sumber daya selama jam-jam sibuk untuk tugas analitik. Driver AWS Neuron SDK dan NVIDIA GPU mengoptimalkan kinerja, sekaligus MIG/TS memungkinkan berbagi GPU. Solusi penyimpanan termasuk Amazon S3 dan Amazon EFS dan FSx untuk Lustre , dengan driver CSI untuk berbagai kelas penyimpanan. Manajemen model memanfaatkan alat seperti Pipelines Kubeflow, Argo Workflows, dan Ray Cluster, sementara pemantauan ditangani oleh Prometheus, Grafana, dan alat pemantauan model kustom.
Studi kasus
Pelanggan memilih Amazon EKS karena berbagai alasan, seperti mengoptimalkan penggunaan GPU atau menjalankan beban kerja inferensi real-time dengan latensi sub-detik, seperti yang ditunjukkan dalam studi kasus berikut. Untuk daftar semua studi kasus untuk Amazon EKS, lihat Kisah Sukses AWS Pelanggan
-
Unitary
memproses 26 juta video setiap hari menggunakan AI untuk moderasi konten, membutuhkan throughput tinggi, inferensi latensi rendah dan telah mencapai pengurangan 80% dalam waktu boot kontainer, memastikan respons cepat terhadap peristiwa penskalaan saat lalu lintas berfluktuasi. -
Miro
, platform kolaborasi visual yang mendukung 70 juta pengguna di seluruh dunia, melaporkan pengurangan 80% dalam biaya komputasi dibandingkan dengan cluster Kubernetes yang dikelola sendiri sebelumnya. -
Synthesia
, yang menawarkan pembuatan video AI generatif sebagai layanan bagi pelanggan untuk membuat video realistis dari petunjuk teks, mencapai peningkatan 30x dalam throughput pelatihan model ML. -
Harri
, yang menyediakan teknologi SDM untuk industri perhotelan, mencapai penskalaan 90% lebih cepat dalam menanggapi lonjakan permintaan dan mengurangi biaya komputasi sebesar 30% dengan bermigrasi ke prosesor Graviton.AWS -
Ada Support
, sebuah perusahaan otomatisasi layanan pelanggan bertenaga AI, mencapai pengurangan 15% dalam biaya komputasi di samping peningkatan 30% dalam efisiensi komputasi. -
Snorkel AI
, yang melengkapi perusahaan untuk membangun dan mengadaptasi model pondasi dan model bahasa besar, mencapai penghematan biaya lebih dari 40% dengan menerapkan mekanisme penskalaan cerdas untuk sumber daya GPU mereka.
Mulai menggunakan Machine Learning di EKS
Untuk mulai merencanakan dan menggunakan platform Machine Learning dan beban kerja di EKS di AWS cloud, lanjutkan ke Sumber daya untuk memulai AI/ML di Amazon EKS bagian tersebut.