Terjemahan disediakan oleh mesin penerjemah. Jika konten terjemahan yang diberikan bertentangan dengan versi bahasa Inggris aslinya, utamakan versi bahasa Inggris.
Menyesuaikan model bahasa besar dalam perawatan kesehatan
Pendekatan fine-tuning yang dijelaskan dalam bagian ini mendukung kepatuhan terhadap pedoman etika dan peraturan dan mempromosikan penggunaan sistem AI yang bertanggung jawab dalam perawatan kesehatan. Ini dirancang untuk menghasilkan wawasan yang akurat dan pribadi. AI generatif merevolusi pemberian layanan kesehatan, tetapi off-the-shelf model sering gagal dalam lingkungan klinis di mana akurasi sangat penting dan kepatuhan tidak dapat dinegosiasikan. Model fondasi fine-tuning dengan data spesifik domain menjembatani kesenjangan ini. Ini membantu Anda membuat sistem AI yang berbicara bahasa kedokteran sambil mematuhi standar peraturan yang ketat. Namun, jalan menuju fine-tuning yang sukses membutuhkan navigasi yang cermat terhadap tantangan unik perawatan kesehatan: melindungi data sensitif, membenarkan investasi AI dengan hasil yang terukur, dan mempertahankan relevansi klinis dalam lanskap medis yang berkembang cepat.
Ketika pendekatan yang lebih ringan mencapai batasnya, fine-tuning menjadi investasi strategis. Harapannya adalah bahwa keuntungan dalam akurasi, latensi, atau efisiensi operasional akan mengimbangi biaya komputasi dan rekayasa yang signifikan yang diperlukan. Penting untuk diingat bahwa laju kemajuan dalam model pondasi cepat, sehingga keunggulan model yang disetel dengan baik mungkin hanya bertahan hingga rilis model utama berikutnya.
Bagian ini menambatkan diskusi dalam dua kasus penggunaan berdampak tinggi berikut dari pelanggan AWS layanan kesehatan:
-
Sistem pendukung keputusan klinis — Meningkatkan akurasi diagnostik melalui model yang memahami riwayat pasien yang kompleks dan pedoman yang berkembang. Penyetelan halus dapat membantu model sangat memahami riwayat pasien yang kompleks dan mengintegrasikan pedoman khusus Ini berpotensi mengurangi kesalahan prediksi model. Namun, Anda perlu mempertimbangkan keuntungan ini terhadap biaya pelatihan pada kumpulan data yang besar dan sensitif serta infrastruktur yang diperlukan untuk aplikasi klinis berisiko tinggi. Akankah peningkatan akurasi dan kesadaran konteks membenarkan investasi, terutama ketika model-model baru sering dirilis?
-
Analisis dokumen medis — Mengotomatiskan pemrosesan catatan klinis, laporan pencitraan, dan dokumen asuransi sambil mempertahankan kepatuhan Undang-Undang Portabilitas dan Akuntabilitas Asuransi Kesehatan (HIPAA). Di sini, fine-tuning memungkinkan model untuk menangani format unik, singkatan khusus, dan persyaratan peraturan secara lebih efektif. Imbalannya sering terlihat dalam pengurangan waktu peninjauan manual dan peningkatan kepatuhan. Namun, penting untuk menilai apakah perbaikan ini cukup besar untuk menjamin sumber daya fine-tuning. Tentukan apakah rekayasa yang cepat dan orkestrasi alur kerja dapat memenuhi kebutuhan Anda.
Skenario dunia nyata ini menggambarkan perjalanan fine-tuning, dari eksperimen awal hingga penerapan model, sambil menangani persyaratan unik perawatan kesehatan di setiap tahap.
Memperkirakan biaya dan laba atas investasi
Berikut ini adalah faktor biaya yang harus Anda pertimbangkan saat menyempurnakan LLM:
-
Ukuran model - Model yang lebih besar harganya lebih mahal untuk disempurnakan
-
Dataset size — Biaya komputasi dan waktu meningkat dengan ukuran dataset untuk fine-tuning
-
Strategi fine-tuning — Metode hemat parameter dapat mengurangi biaya dibandingkan dengan pembaruan parameter lengkap
Saat menghitung laba atas investasi (ROI), pertimbangkan peningkatan metrik yang Anda pilih (seperti akurasi) dikalikan dengan volume permintaan (seberapa sering model akan digunakan) dan durasi yang diharapkan sebelum model dilampaui oleh versi yang lebih baru.
Juga, pertimbangkan umur LLM dasar Anda. Model dasar baru muncul setiap 6-12 bulan. Jika detektor penyakit langka Anda membutuhkan waktu 8 bulan untuk menyempurnakan dan memvalidasi, Anda mungkin hanya mendapatkan 4 bulan kinerja superior sebelum model yang lebih baru menutup celah.
Dengan menghitung biaya, ROI, dan potensi umur untuk kasus penggunaan Anda, Anda dapat membuat keputusan berdasarkan data. Misalnya, jika menyempurnakan model dukungan keputusan klinis Anda mengarah pada pengurangan kesalahan diagnostik yang terukur di ribuan kasus per tahun, investasi mungkin akan cepat terbayar. Sebaliknya, jika rekayasa cepat saja membawa alur kerja analisis dokumen Anda mendekati akurasi target Anda, mungkin bijaksana untuk menunda fine-tuning sampai model generasi berikutnya tiba.
Fine-tuning tidak. one-size-fits-all Jika Anda memutuskan untuk menyempurnakan, pendekatan yang tepat tergantung pada kasus penggunaan, data, dan sumber daya Anda.
Memilih strategi fine-tuning
Setelah Anda menentukan bahwa fine-tuning adalah pendekatan yang tepat untuk kasus penggunaan perawatan kesehatan Anda, langkah selanjutnya adalah memilih strategi fine-tuning yang paling tepat. Ada beberapa pendekatan yang tersedia. Masing-masing memiliki keunggulan dan trade-off yang berbeda untuk aplikasi perawatan kesehatan. Pilihan antara metode ini tergantung pada tujuan spesifik Anda, data yang tersedia, dan kendala sumber daya.
Tujuan pelatihan
Domain-adaptive pre-training (DAPT)
Supervised fine-tuning (SFT)
Pembelajaran penguatan dari umpan balik manusia (RLHF)
Metode implementasi
Pembaruan parameter lengkap melibatkan pembaruan semua parameter model selama pelatihan. Pendekatan ini bekerja paling baik untuk sistem pendukung keputusan klinis yang memerlukan integrasi mendalam dari riwayat pasien, hasil laboratorium, dan pedoman yang berkembang. Kekurangannya termasuk biaya komputasi yang tinggi dan risiko overfitting jika kumpulan data Anda tidak besar dan beragam.
Metode fine-tuning (PEFT) yang efisien parameter
Untuk informasi selengkapnya tentang metode fine-tuning, lihat Metode fine-tuning lanjutan di SageMaker Amazon AI (posting blog
Membangun kumpulan data fine-tuning
Kualitas dan keragaman kumpulan data fine-tuning sangat penting untuk memodelkan kinerja, keamanan, dan pencegahan bias. Berikut ini adalah tiga area penting yang perlu dipertimbangkan saat membangun kumpulan data ini:
-
Volume berdasarkan pendekatan fine-tuning
-
Anotasi data dari pakar domain
-
Keragaman kumpulan data
Seperti yang ditunjukkan pada tabel berikut, persyaratan ukuran kumpulan data untuk fine-tuning bervariasi berdasarkan jenis fine-tuning yang dilakukan.
Strategi fine-tuning |
Ukuran dataset |
|---|---|
Domain diadaptasi pra-pelatihan |
100.000+ teks domain |
Penyetelan halus yang diawasi |
10.000+ pasangan berlabel |
Pembelajaran penguatan dari umpan balik manusia |
1.000+ pasangan preferensi ahli |
Anda dapat menggunakan AWS Glue, Amazon EMR, dan Amazon SageMaker Data Wrangler untuk mengotomatiskan proses ekstraksi dan transformasi data guna mengkurasi kumpulan data yang Anda miliki. Jika Anda tidak dapat mengkurasi kumpulan data yang cukup besar, Anda dapat menemukan dan mengunduh kumpulan data langsung ke perangkat Anda. Akun AWS AWS Data Exchange Konsultasikan dengan penasihat hukum Anda sebelum menggunakan kumpulan data pihak ketiga.
Ahli anotator dengan pengetahuan domain, seperti dokter medis, ahli biologi, dan ahli kimia, harus menjadi bagian dari proses kurasi data untuk memasukkan nuansa data medis dan biologis ke dalam output model. Amazon SageMaker Ground Truth menyediakan antarmuka pengguna kode rendah bagi para ahli untuk membuat anotasi kumpulan data.
Kumpulan data yang mewakili populasi manusia sangat penting untuk perawatan kesehatan dan ilmu hayati menyempurnakan kasus penggunaan untuk mencegah bias dan mencerminkan hasil dunia nyata. AWS Glue sesi interaktif atau instans SageMaker notebook Amazon menawarkan cara yang ampuh untuk menjelajahi kumpulan data secara berulang dan menyempurnakan transformasi dengan menggunakan notebook yang kompatibel dengan Jupiter. Sesi interaktif memungkinkan Anda untuk bekerja dengan pilihan lingkungan pengembangan terintegrasi populer (IDEs) di lingkungan lokal Anda. Atau, Anda dapat bekerja dengan AWS Glue atau notebook Amazon SageMaker Studio melalui. Konsol Manajemen AWS
Menyetel model
AWS menyediakan layanan seperti Amazon SageMaker AI dan Amazon Bedrock yang sangat penting untuk fine-tuning yang sukses.
SageMaker AI adalah layanan pembelajaran mesin yang dikelola sepenuhnya yang membantu pengembang dan ilmuwan data untuk membangun, melatih, dan menerapkan model ML dengan cepat. Tiga fitur berguna SageMaker AI untuk fine-tuning meliputi:
-
SageMakerPelatihan - Fitur ML yang dikelola sepenuhnya yang membantu Anda melatih berbagai model secara efisien dalam skala
-
SageMaker JumpStart— Kemampuan yang dibangun di atas pekerjaan SageMaker Pelatihan untuk menyediakan model yang telah dilatih sebelumnya, algoritme bawaan, dan templat solusi untuk tugas ML
-
SageMaker HyperPod— Solusi infrastruktur yang dibangun khusus untuk pelatihan terdistribusi model pondasi dan LLMs
Amazon Bedrock adalah layanan terkelola penuh yang menyediakan akses ke model foundation berkinerja tinggi melalui API, dengan fitur keamanan, privasi, dan skalabilitas bawaan. Layanan ini menyediakan kemampuan untuk menyempurnakan beberapa model dasar yang tersedia. Untuk informasi selengkapnya, lihat Model dan Wilayah yang Didukung untuk menyempurnakan dan melanjutkan pra-pelatihan dalam dokumentasi Amazon Bedrock.
Saat mendekati proses fine-tuning dengan salah satu layanan, pertimbangkan model dasar, strategi fine-tuning, dan infrastruktur.
Pilihan model dasar
Model sumber tertutup, seperti Anthropic Claude, Meta Llama, dan Amazon Nova, memberikan kinerja yang out-of-the-box kuat dengan kepatuhan terkelola tetapi membatasi fleksibilitas fine-tuning ke opsi yang didukung penyedia seperti dikelola seperti Amazon Bedrock. APIs Ini membatasi penyesuaian, terutama untuk kasus penggunaan perawatan kesehatan yang diatur. Sebaliknya, model sumber terbuka, seperti Meta Llama, memberikan kontrol dan fleksibilitas penuh di seluruh layanan Amazon SageMaker AI, menjadikannya ideal saat Anda perlu menyesuaikan, mengaudit, atau menyesuaikan model secara mendalam dengan data spesifik atau persyaratan alur kerja Anda.
Strategi fine-tuning
Penyetelan instruksi sederhana dapat ditangani oleh kustomisasi model Amazon Bedrock atau Amazon. SageMaker JumpStart Pendekatan PEFT yang kompleks, seperti LoRa atau adaptor, memerlukan pekerjaan SageMaker Pelatihan atau fitur fine-tuning khusus di Amazon Bedrock. Pelatihan terdistribusi untuk model yang sangat besar didukung oleh SageMaker HyperPod.
Skala dan kontrol infrastruktur
Layanan yang dikelola sepenuhnya, seperti Amazon Bedrock, meminimalkan manajemen infrastruktur dan ideal untuk organisasi yang memprioritaskan kemudahan penggunaan dan kepatuhan. Opsi semi-terkelola, seperti SageMaker JumpStart, menawarkan beberapa fleksibilitas dengan kompleksitas yang lebih sedikit. Opsi ini cocok untuk pembuatan prototipe cepat atau saat menggunakan alur kerja pra-bangun. Kontrol dan kustomisasi penuh datang dengan pekerjaan SageMaker Pelatihan dan HyperPod, meskipun ini membutuhkan lebih banyak keahlian dan yang terbaik ketika Anda perlu meningkatkan untuk kumpulan data besar atau memerlukan saluran pipa khusus.
Memantau model yang disetel dengan baik
Dalam perawatan kesehatan dan ilmu kehidupan, pemantauan LLM fine-tuning memerlukan pelacakan beberapa indikator kinerja utama. Akurasi memberikan pengukuran dasar, tetapi ini harus diimbangi dengan presisi dan penarikan, terutama dalam aplikasi di mana kesalahan klasifikasi membawa konsekuensi yang signifikan. Skor F1 membantu mengatasi masalah ketidakseimbangan kelas yang umum terjadi pada kumpulan data medis. Untuk informasi selengkapnya, lihat Mengevaluasi aplikasi LLMs perawatan kesehatan dan ilmu hayati dalam panduan ini.
Metrik kalibrasi membantu Anda memastikan bahwa tingkat kepercayaan model sesuai dengan probabilitas dunia nyata. Metrik keadilan dapat membantu Anda mendeteksi potensi bias di berbagai demografi pasien.
MLflowadalah solusi open source yang dapat membantu Anda melacak eksperimen fine-tuning. MLflow didukung secara native dalam Amazon SageMaker AI, yang membantu Anda membandingkan metrik secara visual dari latihan. Untuk pekerjaan fine-tuning di Amazon Bedrock, metrik dialirkan ke Amazon CloudWatch sehingga Anda dapat memvisualisasikan metrik di konsol. CloudWatch