Verwendung umfangreicher Sprachmodelle für Anwendungsfälle im Gesundheitswesen und in den Biowissenschaften - AWS Präskriptive Leitlinien

Die vorliegende Übersetzung wurde maschinell erstellt. Im Falle eines Konflikts oder eines Widerspruchs zwischen dieser übersetzten Fassung und der englischen Fassung (einschließlich infolge von Verzögerungen bei der Übersetzung) ist die englische Fassung maßgeblich.

Verwendung umfangreicher Sprachmodelle für Anwendungsfälle im Gesundheitswesen und in den Biowissenschaften

Hier wird beschrieben, wie Sie große Sprachmodelle (LLMs) für Anwendungen im Gesundheitswesen und in den Biowissenschaften verwenden können. Einige Anwendungsfälle erfordern die Verwendung eines großen Sprachmodells für generative KI-Funktionen. Selbst für die meisten gibt es Vor- und Nachteile state-of-the-art LLMs, und die Empfehlungen in diesem Abschnitt sollen Ihnen helfen, Ihre Zielergebnisse zu erreichen.

Sie können den Entscheidungspfad verwenden, um die geeignete LLM-Lösung für Ihren Anwendungsfall zu ermitteln und dabei Faktoren wie Fachwissen und verfügbare Trainingsdaten zu berücksichtigen. Darüber hinaus werden in diesem Abschnitt beliebte vortrainierte medizinische Fachkräfte LLMs sowie bewährte Verfahren für deren Auswahl und Anwendung beschrieben. Außerdem werden die Kompromisse zwischen komplexen, leistungsstarken Lösungen und einfacheren, kostengünstigeren Ansätzen erörtert.

Anwendungsfälle für ein LLM

Amazon Comprehend Medical kann bestimmte NLP-Aufgaben ausführen. Weitere Informationen finden Sie unter Anwendungsfälle für Amazon Comprehend Medical.

Die logischen und generativen KI-Fähigkeiten eines LLM können für fortgeschrittene Anwendungsfälle im Gesundheitswesen und in den Biowissenschaften erforderlich sein, z. B. für die folgenden:

  • Klassifizierung von benutzerdefinierten medizinischen Entitäten oder Textkategorien

  • Beantwortung klinischer Fragen

  • Zusammenfassung medizinischer Berichte

  • Generierung und Erfassung von Erkenntnissen aus medizinischen Informationen

Anpassungsansätze

Es ist wichtig zu verstehen, wie LLMs sie umgesetzt werden. LLMs werden üblicherweise mit Milliarden von Parametern trainiert, einschließlich Trainingsdaten aus vielen Bereichen. Dieses Training ermöglicht es dem LLM, die meisten allgemeinen Aufgaben zu bewältigen. Herausforderungen treten jedoch häufig auf, wenn domänenspezifisches Wissen erforderlich ist. Beispiele für Fachwissen im Gesundheitswesen und in den Biowissenschaften sind Klinikkodizes, medizinische Terminologie und Gesundheitsinformationen, die zur Generierung genauer Antworten erforderlich sind. Daher führt die Verwendung des LLM unverändert (Zero-Shot Prompting ohne Ergänzung des Fachwissens) für diese Anwendungsfälle wahrscheinlich zu ungenauen Ergebnissen. Es gibt zwei Ansätze, mit denen Sie diese Herausforderung bewältigen können: Retrieval Augmented Generation und Feinabstimmung.

Abrufen, Erweiterte Generierung

Retrieval Augmented Generation (RAG) ist eine generative KI-Technologie, bei der ein LLM auf eine maßgebliche Datenquelle verweist, die sich außerhalb seiner Trainingsdatenquellen befindet, bevor eine Antwort generiert wird. Ein RAG-System kann medizinische Ontologieinformationen (wie internationale Klassifikationen von Krankheiten, nationale Arzneimittelakten und medizinische Fachüberschriften) aus einer Wissensquelle abrufen. Dies bietet zusätzlichen Kontext für das LLM zur Unterstützung der medizinischen NLP-Aufgabe.

Wie im Kombination von Amazon Comprehend Medical mit großen Sprachmodellen Abschnitt beschrieben, können Sie einen RAG-Ansatz verwenden, um Kontext aus Amazon Comprehend Medical abzurufen. Andere allgemeine Wissensquellen umfassen medizinische Domänendaten, die in einem Datenbankservice wie Amazon OpenSearch Service, Amazon Kendra oder Amazon Aurora gespeichert sind. Das Extrahieren von Informationen aus diesen Wissensquellen kann die Abrufleistung beeinträchtigen, insbesondere bei semantischen Abfragen, die eine Vektordatenbank verwenden.

Eine weitere Option zum Speichern und Abrufen von domänenspezifischem Wissen ist die Verwendung von Amazon Q Business in Ihrem RAG-Workflow. Amazon Q Business kann interne Dokumentenspeicher oder öffentlich zugängliche Websites (wie CMS.gov für ICD-10-Daten) indizieren. Amazon Q Business kann dann relevante Informationen aus diesen Quellen extrahieren, bevor Ihre Anfrage an das LLM weitergeleitet wird.

Es gibt mehrere Möglichkeiten, einen benutzerdefinierten RAG-Workflow zu erstellen. Beispielsweise gibt es viele Möglichkeiten, Daten aus einer Wissensquelle abzurufen. Der Einfachheit halber empfehlen wir den gängigen Abrufansatz, bei dem Wissen in Form von Einbettungen mithilfe einer Vektordatenbank wie Amazon OpenSearch Service gespeichert wird. Dies erfordert, dass Sie ein Einbettungsmodell verwenden, z. B. einen Satztransformator, um Einbettungen für die Abfrage und für das in der Vektordatenbank gespeicherte Wissen zu generieren.

Weitere Informationen zu vollständig verwalteten und benutzerdefinierten RAG-Ansätzen finden Sie unter Retrieval Augmented Generation-Optionen und Architekturen auf. AWS

Feinabstimmung

Zur Feinabstimmung eines vorhandenen Modells müssen Sie ein LLM-Modell, z. B. ein Amazon Titan-, Mistral- oder Lama-Modell, erstellen und das Modell anschließend an Ihre benutzerdefinierten Daten anpassen. Es gibt verschiedene Techniken zur Feinabstimmung, von denen die meisten die Änderung nur einiger weniger Parameter beinhalten, anstatt alle Parameter im Modell zu ändern. Dies wird als parametereffizientes Feintuning (PEFT) bezeichnet. Weitere Informationen finden Sie unter Hugging Face PEFT on. GitHub

Im Folgenden sind zwei häufige Anwendungsfälle aufgeführt, in denen Sie sich für die Feinabstimmung eines LLM für eine medizinische NLP-Aufgabe entscheiden könnten:

  • Generative Aufgabe — Decoder-basierte Modelle führen generative KI-Aufgaben aus. KI/ML-Praktiker verwenden Ground-Truth-Daten, um ein bestehendes LLM zu verfeinern. Sie könnten das LLM beispielsweise mithilfe von MedQuAD, einem öffentlichen Datensatz zur Beantwortung medizinischer Fragen, schulen. Wenn Sie eine Abfrage für das fein abgestimmte LLM aufrufen, benötigen Sie keinen RAG-Ansatz, um dem LLM den zusätzlichen Kontext bereitzustellen.

  • Einbettungen — Encoder-basierte Modelle erzeugen Einbettungen, indem sie Text in numerische Vektoren umwandeln. Diese auf Encodern basierenden Modelle werden in der Regel als Einbettungsmodelle bezeichnet. Ein Satztransformator-Modell ist eine bestimmte Art von Einbettungsmodell, das für Sätze optimiert ist. Ziel ist es, Einbettungen aus Eingabetext zu generieren. Die Einbettungen werden dann für semantische Analysen oder für Abruftasks verwendet. Zur Feinabstimmung des Einbettungsmodells benötigen Sie einen Korpus an medizinischem Wissen, z. B. Dokumenten, den Sie als Trainingsdaten verwenden können. Dies wird mit Textpaaren erreicht, die auf Ähnlichkeit oder Stimmung basieren, um ein Satztransformator-Modell zu verfeinern. Weitere Informationen finden Sie unter Training und Feinabstimmung von Einbettungsmodellen mit Sentence Transformers v3 auf Hugging Face.

Sie können Amazon SageMaker Ground Truth verwenden, um einen hochwertigen, beschrifteten Trainingsdatensatz zu erstellen. Sie können die beschrifteten Datensatzausgabe aus Ground Truth verwenden, um Ihre eigenen Modelle zu trainieren. Sie können die Ausgabe auch als Trainingsdatensatz für ein Amazon SageMaker AI-Modell verwenden. Weitere Informationen zur Erkennung benannter Entitäten, zur Textklassifizierung mit einem Etikett und zur Textklassifizierung mit mehreren Bezeichnungen finden Sie unter Textkennzeichnung mit Ground Truth in der Amazon SageMaker AI-Dokumentation.

Einen LLM auswählen

Amazon Bedrock ist der empfohlene Ausgangspunkt für die Bewertung leistungsstarker LLMs Produkte. Weitere Informationen finden Sie unter Unterstützte Foundation-Modelle in Amazon Bedrock. Sie können Modellevaluierungsjobs in Amazon Bedrock verwenden, um die Ergebnisse mehrerer Ausgaben zu vergleichen und dann das Modell auszuwählen, das für Ihren Anwendungsfall am besten geeignet ist. Weitere Informationen finden Sie unter Wählen Sie das Modell mit der besten Leistung anhand von Amazon Bedrock-Bewertungen in der Amazon Bedrock-Dokumentation.

Einige LLMs verfügen nur über begrenzte Schulungen zu medizinischen Daten. Wenn Ihr Anwendungsfall die Feinabstimmung eines LLM oder eines LLM erfordert, das Amazon Bedrock nicht unterstützt, sollten Sie die Verwendung von Amazon AI in Betracht ziehen. SageMaker In SageMaker KI können Sie ein fein abgestimmtes LLM verwenden oder ein benutzerdefiniertes LLM wählen, das auf medizinischen Domänendaten trainiert wurde.

In der folgenden Tabelle sind beliebte Unternehmen aufgeführt LLMs , die auf Daten aus dem medizinischen Bereich trainiert wurden.

LLM Aufgaben Wissen Architektur
Bob Bert Informationsabruf, Textklassifizierung und Erkennung benannter Entitäten Zusammenfassungen von PubMed, Volltextartikel von und PubMedCentral allgemeines Fachwissen Encoder
Klinik Albert Informationsabruf, Textklassifizierung und Erkennung benannter Entitäten Großer, multizentrischer Datensatz zusammen mit über 3.000.000 Patientenakten aus elektronischen Patientendatensystemen (EHR) Encoder
Klinisches GPT Zusammenfassung, Beantwortung von Fragen und Textgenerierung Umfangreiche und vielfältige medizinische Datensätze, darunter Krankenakten, fachspezifisches Wissen und Konsultationen in mehreren Gesprächsrunden Decoder
GatorTron-GO Zusammenfassung, Beantwortung von Fragen, Textgenerierung und Informationsabruf Klinische Hinweise und biomedizinische Literatur Encoder
Med-Bert Informationsabruf, Textklassifizierung und Erkennung benannter Entitäten Großer Datensatz mit medizinischen Texten, klinischen Notizen, Forschungsarbeiten und Dokumenten zum Gesundheitswesen Encoder
Med-Palm Beantwortung von Fragen für medizinische Zwecke Datensätze mit medizinischem und biomedizinischem Text Decoder
Medaille Alpaca Aufgaben zur Beantwortung von Fragen und zum medizinischen Dialog Eine Vielzahl von medizinischen Texten, die Ressourcen wie medizinische Karteikarten, Wikis und Dialogdatensätze umfassen Decoder
BioMedbert Informationsabruf, Textklassifizierung und Erkennung benannter Entitäten Ausschließlich Kurzfassungen PubMed und Volltextartikel von PubMedCentral Encoder
BioMedLM Zusammenfassung, Beantwortung von Fragen und Textgenerierung Biomedizinische Literatur aus Wissensquellen PubMed Decoder

Im Folgenden finden Sie bewährte Methoden für den Einsatz vortrainierter Ärzte: LLMs

  • Machen Sie sich mit den Trainingsdaten und ihrer Relevanz für Ihre medizinische NLP-Aufgabe vertraut.

  • Identifizieren Sie die LLM-Architektur und ihren Zweck. Encoder eignen sich für Einbettungen und NLP-Aufgaben. Decoder sind für Generierungsaufgaben vorgesehen.

  • Evaluieren Sie die Infrastruktur-, Leistungs- und Kostenanforderungen für die Durchführung des vortrainierten medizinischen LLM.

  • Wenn eine Feinabstimmung erforderlich ist, stellen Sie sicher, dass die Trainingsdaten korrekt sind. Stellen Sie sicher, dass Sie alle persönlich identifizierbaren Informationen (PII) oder geschützten Gesundheitsinformationen (PHI) maskieren oder unkenntlich machen.

Reale medizinische NLP-Aufgaben können sich LLMs in Bezug auf Wissen oder beabsichtigte Anwendungsfälle von vortrainierten Aufgaben unterscheiden. Wenn ein domänenspezifisches LLM Ihre Bewertungsmaßstäbe nicht erfüllt, können Sie ein LLM mit Ihrem eigenen Datensatz verfeinern oder ein neues Basismodell trainieren. Die Schulung eines neuen Basismodells ist ein ehrgeiziges und oft teures Unterfangen. Für die meisten Anwendungsfälle empfehlen wir, ein vorhandenes Modell zu verfeinern.

Bei der Verwendung oder Feinabstimmung eines vortrainierten medizinischen LLMs ist es wichtig, die Infrastruktur, die Sicherheit und die Leitplanken zu berücksichtigen.

Infrastruktur

Im Vergleich zur Nutzung von Amazon Bedrock für On-Demand- oder Batch-Inferenzen erfordert das Hosten von vorab geschultem medizinischem Personal LLMs (in der Regel von Hugging Face) erhebliche Ressourcen. Um vortrainierte medizinische Geräte zu hosten LLMs, wird üblicherweise ein Amazon SageMaker AI-Image verwendet, das auf einer Amazon Elastic Compute Cloud (Amazon EC2) -Instance mit einer oder mehreren Instanzen ausgeführt wird GPUs, z. B. ml.g5-Instances für beschleunigtes Rechnen oder ml.inf2-Instances für. AWS Inferentia Das liegt daran, dass eine große Menge an Arbeitsspeicher und LLMs Festplattenspeicher verbraucht wird.

Sicherheit und Leitplanken

Je nach Ihren geschäftlichen Compliance-Anforderungen sollten Sie erwägen, Amazon Comprehend und Amazon Comprehend Medical zu verwenden, um personenbezogene Daten (PII) und geschützte Gesundheitsinformationen (PHI) aus Trainingsdaten zu maskieren oder zu redigieren. Dadurch wird verhindert, dass das LLM vertrauliche Daten verwendet, wenn es Antworten generiert.

Wir empfehlen Ihnen, Vorurteile, Fairness und Halluzinationen in Ihren generativen KI-Anwendungen zu berücksichtigen und zu bewerten. Unabhängig davon, ob Sie ein bereits vorhandenes LLM verwenden oder eines optimieren, implementieren Sie Leitplanken, um schädliche Reaktionen zu verhindern. Guardrails sind Schutzmaßnahmen, die Sie an Ihre generativen KI-Anwendungsanforderungen und verantwortungsvollen KI-Richtlinien anpassen. Sie können beispielsweise Amazon Bedrock Guardrails verwenden.