Menyesuaikan model bahasa besar dalam perawatan kesehatan - AWS Panduan Preskriptif

Terjemahan disediakan oleh mesin penerjemah. Jika konten terjemahan yang diberikan bertentangan dengan versi bahasa Inggris aslinya, utamakan versi bahasa Inggris.

Menyesuaikan model bahasa besar dalam perawatan kesehatan

Pendekatan fine-tuning yang dijelaskan dalam bagian ini mendukung kepatuhan terhadap pedoman etika dan peraturan dan mempromosikan penggunaan sistem AI yang bertanggung jawab dalam perawatan kesehatan. Ini dirancang untuk menghasilkan wawasan yang akurat dan pribadi. AI generatif merevolusi pemberian layanan kesehatan, tetapi off-the-shelf model sering gagal dalam lingkungan klinis di mana akurasi sangat penting dan kepatuhan tidak dapat dinegosiasikan. Model fondasi fine-tuning dengan data spesifik domain menjembatani kesenjangan ini. Ini membantu Anda membuat sistem AI yang berbicara bahasa kedokteran sambil mematuhi standar peraturan yang ketat. Namun, jalan menuju fine-tuning yang sukses membutuhkan navigasi yang cermat terhadap tantangan unik perawatan kesehatan: melindungi data sensitif, membenarkan investasi AI dengan hasil yang terukur, dan mempertahankan relevansi klinis dalam lanskap medis yang berkembang cepat.

Ketika pendekatan yang lebih ringan mencapai batasnya, fine-tuning menjadi investasi strategis. Harapannya adalah bahwa keuntungan dalam akurasi, latensi, atau efisiensi operasional akan mengimbangi biaya komputasi dan rekayasa yang signifikan yang diperlukan. Penting untuk diingat bahwa laju kemajuan dalam model pondasi cepat, sehingga keunggulan model yang disetel dengan baik mungkin hanya bertahan hingga rilis model utama berikutnya.

Bagian ini menambatkan diskusi dalam dua kasus penggunaan berdampak tinggi berikut dari pelanggan AWS layanan kesehatan:

  • Sistem pendukung keputusan klinis — Meningkatkan akurasi diagnostik melalui model yang memahami riwayat pasien yang kompleks dan pedoman yang berkembang. Penyetelan halus dapat membantu model sangat memahami riwayat pasien yang kompleks dan mengintegrasikan pedoman khusus Ini berpotensi mengurangi kesalahan prediksi model. Namun, Anda perlu mempertimbangkan keuntungan ini terhadap biaya pelatihan pada kumpulan data yang besar dan sensitif serta infrastruktur yang diperlukan untuk aplikasi klinis berisiko tinggi. Akankah peningkatan akurasi dan kesadaran konteks membenarkan investasi, terutama ketika model-model baru sering dirilis?

  • Analisis dokumen medis — Mengotomatiskan pemrosesan catatan klinis, laporan pencitraan, dan dokumen asuransi sambil mempertahankan kepatuhan Undang-Undang Portabilitas dan Akuntabilitas Asuransi Kesehatan (HIPAA). Di sini, fine-tuning memungkinkan model untuk menangani format unik, singkatan khusus, dan persyaratan peraturan secara lebih efektif. Imbalannya sering terlihat dalam pengurangan waktu peninjauan manual dan peningkatan kepatuhan. Namun, penting untuk menilai apakah perbaikan ini cukup besar untuk menjamin sumber daya fine-tuning. Tentukan apakah rekayasa yang cepat dan orkestrasi alur kerja dapat memenuhi kebutuhan Anda.

Skenario dunia nyata ini menggambarkan perjalanan fine-tuning, dari eksperimen awal hingga penerapan model, sambil menangani persyaratan unik perawatan kesehatan di setiap tahap.

Memperkirakan biaya dan laba atas investasi

Berikut ini adalah faktor biaya yang harus Anda pertimbangkan saat menyempurnakan LLM:

  • Ukuran model - Model yang lebih besar harganya lebih mahal untuk disempurnakan

  • Dataset size — Biaya komputasi dan waktu meningkat dengan ukuran dataset untuk fine-tuning

  • Strategi fine-tuning — Metode hemat parameter dapat mengurangi biaya dibandingkan dengan pembaruan parameter lengkap

Saat menghitung laba atas investasi (ROI), pertimbangkan peningkatan metrik yang Anda pilih (seperti akurasi) dikalikan dengan volume permintaan (seberapa sering model akan digunakan) dan durasi yang diharapkan sebelum model dilampaui oleh versi yang lebih baru.

Juga, pertimbangkan umur LLM dasar Anda. Model dasar baru muncul setiap 6-12 bulan. Jika detektor penyakit langka Anda membutuhkan waktu 8 bulan untuk menyempurnakan dan memvalidasi, Anda mungkin hanya mendapatkan 4 bulan kinerja superior sebelum model yang lebih baru menutup celah.

Dengan menghitung biaya, ROI, dan potensi umur untuk kasus penggunaan Anda, Anda dapat membuat keputusan berdasarkan data. Misalnya, jika menyempurnakan model dukungan keputusan klinis Anda mengarah pada pengurangan kesalahan diagnostik yang terukur di ribuan kasus per tahun, investasi mungkin akan cepat terbayar. Sebaliknya, jika rekayasa cepat saja membawa alur kerja analisis dokumen Anda mendekati akurasi target Anda, mungkin bijaksana untuk menunda fine-tuning sampai model generasi berikutnya tiba.

Fine-tuning tidak. one-size-fits-all Jika Anda memutuskan untuk menyempurnakan, pendekatan yang tepat tergantung pada kasus penggunaan, data, dan sumber daya Anda.

Memilih strategi fine-tuning

Setelah Anda menentukan bahwa fine-tuning adalah pendekatan yang tepat untuk kasus penggunaan perawatan kesehatan Anda, langkah selanjutnya adalah memilih strategi fine-tuning yang paling tepat. Ada beberapa pendekatan yang tersedia. Masing-masing memiliki keunggulan dan trade-off yang berbeda untuk aplikasi perawatan kesehatan. Pilihan antara metode ini tergantung pada tujuan spesifik Anda, data yang tersedia, dan kendala sumber daya.

Tujuan pelatihan

Domain-adaptive pre-training (DAPT) adalah metode tanpa pengawasan yang melibatkan pra-pelatihan model pada sejumlah besar teks khusus domain dan tidak berlabel (seperti jutaan dokumen medis). Pendekatan ini sangat cocok untuk meningkatkan kemampuan model untuk memahami singkatan khusus medis dan terminologi yang digunakan oleh ahli radiologi, ahli saraf, dan penyedia khusus lainnya. Namun, DAPT membutuhkan sejumlah besar data dan tidak membahas output tugas tertentu.

Supervised fine-tuning (SFT) mengajarkan model untuk mengikuti instruksi eksplisit dengan menggunakan contoh input-output terstruktur. Pendekatan ini unggul untuk alur kerja analisis dokumen medis, seperti ringkasan dokumen atau pengkodean klinis. Penyetelan instruksi adalah bentuk umum SFT di mana model dilatih pada contoh yang mencakup instruksi eksplisit yang dipasangkan dengan output yang diinginkan. Ini meningkatkan kemampuan model untuk memahami dan mengikuti beragam petunjuk pengguna. Teknik ini sangat berharga dalam pengaturan perawatan kesehatan karena melatih model dengan contoh klinis tertentu. Kelemahan utama adalah bahwa hal itu membutuhkan contoh yang diberi label dengan hati-hati. Selain itu, model yang disetel dengan baik mungkin berjuang dengan kasus tepi di mana tidak ada contoh. Untuk petunjuk tentang fine-tuning dengan Amazon SageMaker Jumpstart, lihat Instruksi fine-tuning untuk FLAN T5 XL dengan Amazon Jumpstart (posting blog). SageMaker AWS

Pembelajaran penguatan dari umpan balik manusia (RLHF) mengoptimalkan perilaku model berdasarkan umpan balik dan preferensi ahli. Gunakan model hadiah yang dilatih tentang preferensi dan metode manusia, seperti optimasi kebijakan proksimal (PPO) atau optimasi preferensi langsung (DPO), untuk mengoptimalkan model sambil mencegah pembaruan yang merusak. RLHF sangat ideal untuk menyelaraskan output dengan pedoman klinis dan memastikan bahwa rekomendasi tetap dalam protokol yang disetujui. Pendekatan ini membutuhkan waktu dokter yang signifikan untuk umpan balik dan melibatkan jalur pelatihan yang kompleks. Namun, RLHF sangat berharga dalam perawatan kesehatan karena membantu para ahli medis membentuk bagaimana sistem AI berkomunikasi dan membuat rekomendasi. Misalnya, dokter dapat memberikan umpan balik untuk memastikan bahwa model mempertahankan cara samping tempat tidur yang tepat, tahu kapan harus mengekspresikan ketidakpastian, dan tetap dalam pedoman klinis. Teknik seperti PPO secara iteratif mengoptimalkan perilaku model berdasarkan umpan balik ahli sambil membatasi pembaruan parameter untuk melestarikan pengetahuan medis inti. Hal ini memungkinkan model untuk menyampaikan diagnosis kompleks dalam bahasa yang ramah pasien sambil tetap menandai kondisi serius untuk perhatian medis segera. Ini sangat penting untuk perawatan kesehatan di mana akurasi dan gaya komunikasi penting. Untuk informasi lebih lanjut tentang RLHF, lihat Sempurnakan model bahasa besar dengan pembelajaran penguatan dari umpan balik manusia atau AI (posting blog).AWS

Metode implementasi

Pembaruan parameter lengkap melibatkan pembaruan semua parameter model selama pelatihan. Pendekatan ini bekerja paling baik untuk sistem pendukung keputusan klinis yang memerlukan integrasi mendalam dari riwayat pasien, hasil laboratorium, dan pedoman yang berkembang. Kekurangannya termasuk biaya komputasi yang tinggi dan risiko overfitting jika kumpulan data Anda tidak besar dan beragam.

Metode fine-tuning (PEFT) yang efisien parameter hanya memperbarui sebagian parameter untuk mencegah overfitting atau hilangnya kemampuan bahasa yang dahsyat. Jenis termasuk adaptasi peringkat rendah (LoRa), adaptor, dan penyetelan awalan. Metode PEFT menawarkan biaya komputasi yang lebih rendah, pelatihan yang lebih cepat, dan bagus untuk eksperimen seperti mengadaptasi model pendukung keputusan klinis dengan protokol atau terminologi rumah sakit baru. Keterbatasan utama berpotensi mengurangi kinerja dibandingkan dengan pembaruan parameter penuh.

Untuk informasi selengkapnya tentang metode fine-tuning, lihat Metode fine-tuning lanjutan di SageMaker Amazon AI (posting blog).AWS

Membangun kumpulan data fine-tuning

Kualitas dan keragaman kumpulan data fine-tuning sangat penting untuk memodelkan kinerja, keamanan, dan pencegahan bias. Berikut ini adalah tiga area penting yang perlu dipertimbangkan saat membangun kumpulan data ini:

  • Volume berdasarkan pendekatan fine-tuning

  • Anotasi data dari pakar domain

  • Keragaman kumpulan data

Seperti yang ditunjukkan pada tabel berikut, persyaratan ukuran kumpulan data untuk fine-tuning bervariasi berdasarkan jenis fine-tuning yang dilakukan.

Strategi fine-tuning

Ukuran dataset

Domain diadaptasi pra-pelatihan

100.000+ teks domain

Penyetelan halus yang diawasi

10.000+ pasangan berlabel

Pembelajaran penguatan dari umpan balik manusia

1.000+ pasangan preferensi ahli

Anda dapat menggunakan AWS Glue, Amazon EMR, dan Amazon SageMaker Data Wrangler untuk mengotomatiskan proses ekstraksi dan transformasi data guna mengkurasi kumpulan data yang Anda miliki. Jika Anda tidak dapat mengkurasi kumpulan data yang cukup besar, Anda dapat menemukan dan mengunduh kumpulan data langsung ke perangkat Anda. Akun AWS AWS Data Exchange Konsultasikan dengan penasihat hukum Anda sebelum menggunakan kumpulan data pihak ketiga.

Ahli anotator dengan pengetahuan domain, seperti dokter medis, ahli biologi, dan ahli kimia, harus menjadi bagian dari proses kurasi data untuk memasukkan nuansa data medis dan biologis ke dalam output model. Amazon SageMaker Ground Truth menyediakan antarmuka pengguna kode rendah bagi para ahli untuk membuat anotasi kumpulan data.

Kumpulan data yang mewakili populasi manusia sangat penting untuk perawatan kesehatan dan ilmu hayati menyempurnakan kasus penggunaan untuk mencegah bias dan mencerminkan hasil dunia nyata. AWS Glue sesi interaktif atau instans SageMaker notebook Amazon menawarkan cara yang ampuh untuk menjelajahi kumpulan data secara berulang dan menyempurnakan transformasi dengan menggunakan notebook yang kompatibel dengan Jupiter. Sesi interaktif memungkinkan Anda untuk bekerja dengan pilihan lingkungan pengembangan terintegrasi populer (IDEs) di lingkungan lokal Anda. Atau, Anda dapat bekerja dengan AWS Glue atau notebook Amazon SageMaker Studio melalui. Konsol Manajemen AWS

Menyetel model

AWS menyediakan layanan seperti Amazon SageMaker AI dan Amazon Bedrock yang sangat penting untuk fine-tuning yang sukses.

SageMaker AI adalah layanan pembelajaran mesin yang dikelola sepenuhnya yang membantu pengembang dan ilmuwan data untuk membangun, melatih, dan menerapkan model ML dengan cepat. Tiga fitur berguna SageMaker AI untuk fine-tuning meliputi:

  • SageMakerPelatihan - Fitur ML yang dikelola sepenuhnya yang membantu Anda melatih berbagai model secara efisien dalam skala

  • SageMaker JumpStart— Kemampuan yang dibangun di atas pekerjaan SageMaker Pelatihan untuk menyediakan model yang telah dilatih sebelumnya, algoritme bawaan, dan templat solusi untuk tugas ML

  • SageMaker HyperPod— Solusi infrastruktur yang dibangun khusus untuk pelatihan terdistribusi model pondasi dan LLMs

Amazon Bedrock adalah layanan terkelola penuh yang menyediakan akses ke model foundation berkinerja tinggi melalui API, dengan fitur keamanan, privasi, dan skalabilitas bawaan. Layanan ini menyediakan kemampuan untuk menyempurnakan beberapa model dasar yang tersedia. Untuk informasi selengkapnya, lihat Model dan Wilayah yang Didukung untuk menyempurnakan dan melanjutkan pra-pelatihan dalam dokumentasi Amazon Bedrock.

Saat mendekati proses fine-tuning dengan salah satu layanan, pertimbangkan model dasar, strategi fine-tuning, dan infrastruktur.

Pilihan model dasar

Model sumber tertutup, seperti Anthropic Claude, Meta Llama, dan Amazon Nova, memberikan kinerja yang out-of-the-box kuat dengan kepatuhan terkelola tetapi membatasi fleksibilitas fine-tuning ke opsi yang didukung penyedia seperti dikelola seperti Amazon Bedrock. APIs Ini membatasi penyesuaian, terutama untuk kasus penggunaan perawatan kesehatan yang diatur. Sebaliknya, model sumber terbuka, seperti Meta Llama, memberikan kontrol dan fleksibilitas penuh di seluruh layanan Amazon SageMaker AI, menjadikannya ideal saat Anda perlu menyesuaikan, mengaudit, atau menyesuaikan model secara mendalam dengan data spesifik atau persyaratan alur kerja Anda.

Strategi fine-tuning

Penyetelan instruksi sederhana dapat ditangani oleh kustomisasi model Amazon Bedrock atau Amazon. SageMaker JumpStart Pendekatan PEFT yang kompleks, seperti LoRa atau adaptor, memerlukan pekerjaan SageMaker Pelatihan atau fitur fine-tuning khusus di Amazon Bedrock. Pelatihan terdistribusi untuk model yang sangat besar didukung oleh SageMaker HyperPod.

Skala dan kontrol infrastruktur

Layanan yang dikelola sepenuhnya, seperti Amazon Bedrock, meminimalkan manajemen infrastruktur dan ideal untuk organisasi yang memprioritaskan kemudahan penggunaan dan kepatuhan. Opsi semi-terkelola, seperti SageMaker JumpStart, menawarkan beberapa fleksibilitas dengan kompleksitas yang lebih sedikit. Opsi ini cocok untuk pembuatan prototipe cepat atau saat menggunakan alur kerja pra-bangun. Kontrol dan kustomisasi penuh datang dengan pekerjaan SageMaker Pelatihan dan HyperPod, meskipun ini membutuhkan lebih banyak keahlian dan yang terbaik ketika Anda perlu meningkatkan untuk kumpulan data besar atau memerlukan saluran pipa khusus.

Memantau model yang disetel dengan baik

Dalam perawatan kesehatan dan ilmu kehidupan, pemantauan LLM fine-tuning memerlukan pelacakan beberapa indikator kinerja utama. Akurasi memberikan pengukuran dasar, tetapi ini harus diimbangi dengan presisi dan penarikan, terutama dalam aplikasi di mana kesalahan klasifikasi membawa konsekuensi yang signifikan. Skor F1 membantu mengatasi masalah ketidakseimbangan kelas yang umum terjadi pada kumpulan data medis. Untuk informasi selengkapnya, lihat Mengevaluasi aplikasi LLMs perawatan kesehatan dan ilmu hayati dalam panduan ini.

Metrik kalibrasi membantu Anda memastikan bahwa tingkat kepercayaan model sesuai dengan probabilitas dunia nyata. Metrik keadilan dapat membantu Anda mendeteksi potensi bias di berbagai demografi pasien.

MLflowadalah solusi open source yang dapat membantu Anda melacak eksperimen fine-tuning. MLflow didukung secara native dalam Amazon SageMaker AI, yang membantu Anda membandingkan metrik secara visual dari latihan. Untuk pekerjaan fine-tuning di Amazon Bedrock, metrik dialirkan ke Amazon CloudWatch sehingga Anda dapat memvisualisasikan metrik di konsol. CloudWatch