Las traducciones son generadas a través de traducción automática. En caso de conflicto entre la traducción y la version original de inglés, prevalecerá la version en inglés.
Perfeccionamiento de modelos lingüísticos de gran tamaño en el sector sanitario
El enfoque de ajuste detallado que se describe en esta sección respalda el cumplimiento de las directrices éticas y reglamentarias y promueve el uso responsable de los sistemas de IA en el sector sanitario. Está diseñado para generar información precisa y privada. La IA generativa está revolucionando la prestación de servicios de salud, pero off-the-shelf los modelos suelen ser insuficientes en entornos clínicos en los que la precisión es fundamental y el cumplimiento no es negociable. El ajuste preciso de los modelos básicos con datos de dominios específicos colma esta brecha. Le ayuda a crear sistemas de IA que hablen el idioma de la medicina y, al mismo tiempo, cumplan con estrictos estándares reglamentarios. Sin embargo, el camino hacia el éxito de los ajustes requiere abordar con cuidado los desafíos únicos de la atención médica: proteger los datos confidenciales, justificar las inversiones en inteligencia artificial con resultados mensurables y mantener la relevancia clínica en un panorama médico en rápida evolución.
Cuando los enfoques más livianos alcanzan sus límites, los ajustes se convierten en una inversión estratégica. La expectativa es que las ganancias en precisión, latencia o eficiencia operativa compensen los importantes costos de computación e ingeniería necesarios. Es importante recordar que el ritmo de progreso en los modelos básicos es rápido, por lo que la ventaja de un modelo ajustado podría durar solo hasta la próxima versión importante del modelo.
En esta sección, el análisis se centra en los siguientes dos casos de uso de gran impacto de clientes del sector sanitario: AWS
-
Sistemas de apoyo a la toma de decisiones clínicas: mejore la precisión del diagnóstico mediante modelos que entiendan las historias clínicas complejas de los pacientes y las pautas en evolución. Los ajustes precisos pueden ayudar a los modelos a comprender en profundidad las historias clínicas complejas de los pacientes e integrar pautas especializadas, lo que podría reducir los errores de predicción del modelo. Sin embargo, es necesario sopesar estos beneficios con el coste de la formación sobre conjuntos de datos confidenciales de gran tamaño y con la infraestructura necesaria para las aplicaciones clínicas de alto nivel. ¿La mejora de la precisión y el conocimiento del contexto justificarán la inversión, especialmente cuando se lanzan nuevos modelos con frecuencia?
-
Análisis de documentos médicos: automatice el procesamiento de las notas clínicas, los informes de imágenes y los documentos de seguro mientras mantiene el cumplimiento de la Ley de Portabilidad y Responsabilidad de los Seguros de Salud (HIPAA). En este caso, el ajuste preciso puede permitir que el modelo gestione formatos únicos, abreviaturas especializadas y requisitos reglamentarios de forma más eficaz. Los beneficios suelen traducirse en la reducción del tiempo de revisión manual y en la mejora del cumplimiento. Sin embargo, es esencial evaluar si estas mejoras son lo suficientemente sustanciales como para justificar los recursos de ajuste. Determine si la ingeniería rápida y la organización del flujo de trabajo pueden satisfacer sus necesidades.
Estos escenarios reales ilustran el proceso de ajuste, desde la experimentación inicial hasta la implementación del modelo, al tiempo que abordan los requisitos únicos de la atención médica en cada etapa.
Estimación de los costes y el retorno de la inversión
Los siguientes son los factores de costo que debe tener en cuenta al ajustar un LLM:
-
Tamaño del modelo: el ajuste de los modelos más grandes cuesta más
-
Tamaño del conjunto de datos: los costos y el tiempo de cómputo aumentan con el tamaño del conjunto de datos para su ajuste
-
Estrategia de ajuste: los métodos eficientes en cuanto a los parámetros pueden reducir los costes en comparación con las actualizaciones completas de los parámetros
Al calcular el retorno de la inversión (ROI), tenga en cuenta la mejora de las métricas elegidas (como la precisión) multiplicada por el volumen de solicitudes (la frecuencia con la que se utilizará el modelo) y el tiempo esperado antes de que las versiones más recientes superen el modelo.
Además, tenga en cuenta la vida útil de su LLM base. Cada 6 a 12 meses aparecen nuevos modelos base. Si su detector de enfermedades raras tarda 8 meses en afinarse y validarse, es posible que solo obtenga 4 meses de rendimiento superior antes de que los modelos más nuevos cierren la brecha.
Al calcular los costes, el ROI y la vida útil potencial de su caso de uso, podrá tomar una decisión basada en datos. Por ejemplo, si ajustar el modelo de apoyo a las decisiones clínicas conduce a una reducción mensurable de los errores de diagnóstico en miles de casos al año, la inversión podría amortizarse rápidamente. Por el contrario, si la ingeniería rápida por sí sola hace que el flujo de trabajo de análisis de documentos se acerque a la precisión deseada, sería aconsejable posponer los ajustes hasta que llegue la próxima generación de modelos.
El ajuste fino no lo es. one-size-fits-all Si decide realizar ajustes, el enfoque correcto depende del caso de uso, los datos y los recursos.
Elegir una estrategia de ajuste
Una vez que haya determinado que el ajuste es el enfoque correcto para su caso de uso de la atención médica, el siguiente paso es seleccionar la estrategia de ajuste más adecuada. Hay varios enfoques disponibles. Cada uno tiene ventajas y desventajas distintas para las aplicaciones de atención médica. La elección entre estos métodos depende de sus objetivos específicos, de los datos disponibles y de las limitaciones de recursos.
Objetivos de formación
La formación previa adaptada a un dominio (DAPT)
El ajuste preciso supervisado (SFT)
El aprendizaje por refuerzo a partir de la retroalimentación humana (RLHF)
Métodos de implementación
Una actualización completa de los parámetros implica actualizar todos los parámetros del modelo durante el entrenamiento. Este enfoque funciona mejor para los sistemas de apoyo a la toma de decisiones clínicas que requieren una integración profunda de las historias clínicas de los pacientes, los resultados de laboratorio y las directrices en evolución. Los inconvenientes incluyen el alto costo de cómputo y el riesgo de sobreajuste si el conjunto de datos no es grande y diverso.
Los métodos de ajuste preciso con eficiencia de parámetros (PEFT)
Para obtener más información sobre los métodos de ajuste, consulte Métodos de ajuste avanzados en Amazon SageMaker AI
Creación de un conjunto de datos de ajuste
La calidad y la diversidad del conjunto de datos de ajuste fino son fundamentales para el rendimiento del modelo, la seguridad y la prevención de sesgos. Las siguientes son tres áreas críticas que se deben tener en cuenta al crear este conjunto de datos:
-
El volumen se basa en un enfoque de ajuste
-
Anotación de datos de un experto en el campo
-
Diversidad del conjunto de datos
Como se muestra en la siguiente tabla, los requisitos de tamaño del conjunto de datos para el ajuste fino varían según el tipo de ajuste fino que se realice.
Estrategia de ajuste |
Tamaño del conjunto de datos |
|---|---|
Capacitación previa adaptada al dominio |
Más de 100 000 textos de dominio |
Ajustes supervisados |
Más de 10.000 pares etiquetados |
Refuerzo del aprendizaje a partir de la retroalimentación humana |
Más de 1000 pares de preferencias de expertos |
Puede usar AWS GlueAmazon EMR y Amazon SageMaker Data Wrangler para automatizar el proceso de extracción y transformación de datos a fin de conservar un conjunto de datos de su propiedad. Si no puede conservar un conjunto de datos lo suficientemente grande, puede descubrirlos y descargarlos directamente en su propia cuenta. Cuenta de AWS AWS Data Exchange Consulte a su asesor legal antes de utilizar conjuntos de datos de terceros.
Los anotadores expertos con conocimientos en el campo, como médicos, biólogos y químicos, deberían formar parte del proceso de conservación de datos para incorporar los matices de los datos médicos y biológicos en el resultado del modelo. Amazon SageMaker Ground Truth proporciona una interfaz de usuario de bajo código para que los expertos anoten el conjunto de datos.
Un conjunto de datos que represente a la población humana es esencial para que la sanidad y las ciencias de la vida ajusten los casos de uso a fin de evitar sesgos y reflejar los resultados del mundo real. AWS Glue las sesiones interactivas o las instancias de Amazon SageMaker Notebook ofrecen una forma eficaz de explorar conjuntos de datos de forma iterativa y ajustar las transformaciones mediante el uso de cuadernos compatibles con Jupyter. Las sesiones interactivas le permiten trabajar con una variedad de entornos de desarrollo integrados populares () en su entorno local. IDEs Como alternativa, puedes trabajar con AWS Glue o con las libretas de Amazon SageMaker Studio a través del Consola de administración de AWS.
Ajustando el modelo
AWS ofrece servicios como Amazon SageMaker AI y Amazon Bedrock, que son cruciales para el éxito de los ajustes.
SageMaker La IA es un servicio de aprendizaje automático totalmente gestionado que ayuda a los desarrolladores y científicos de datos a crear, entrenar e implementar modelos de aprendizaje automático con rapidez. Entre las tres funciones útiles de la SageMaker IA para realizar ajustes, se incluyen las siguientes:
-
SageMakerCapacitación: una función de aprendizaje automático totalmente gestionada que le ayuda a entrenar de manera eficiente una amplia gama de modelos a escala
-
SageMaker JumpStart— Una capacidad que se basa en los trabajos de SageMaker formación para proporcionar modelos previamente entrenados, algoritmos integrados y plantillas de soluciones para las tareas de aprendizaje automático
-
SageMaker HyperPod— Una solución de infraestructura diseñada específicamente para la formación distribuida de modelos básicos y LLMs
Amazon Bedrock es un servicio totalmente gestionado que proporciona acceso a modelos básicos de alto rendimiento a través de una API, con funciones integradas de seguridad, privacidad y escalabilidad. El servicio ofrece la capacidad de ajustar varios modelos fundamentales disponibles. Para obtener más información, consulte los modelos y regiones compatibles para obtener más información sobre los ajustes y la formación previa continua en la documentación de Amazon Bedrock.
Al abordar el proceso de ajuste con cualquiera de los dos servicios, tenga en cuenta el modelo base, la estrategia de ajuste y la infraestructura.
Elección del modelo base
Los modelos de código cerrado, como Anthropic Claude, Meta Llama y Amazon Nova, ofrecen un out-of-the-box rendimiento sólido con un cumplimiento gestionado, pero limitan la flexibilidad de ajuste a las opciones compatibles con los proveedores, como las gestionadas, como Amazon Bedrock. APIs Esto limita la capacidad de personalización, especialmente en los casos de uso sanitario regulado. Por el contrario, los modelos de código abierto, como Meta Llama, proporcionan control y flexibilidad totales en todos los servicios de SageMaker IA de Amazon, lo que los hace ideales cuando necesitas personalizar, auditar o adaptar en profundidad un modelo a tus requisitos específicos de datos o flujo de trabajo.
Estrategia de ajuste
El ajuste de instrucciones simples se puede realizar mediante la personalización del modelo Amazon Bedrock o Amazon SageMaker JumpStart. Los enfoques PEFT complejos, como LoRa o los adaptadores, requieren trabajos de SageMaker formación o una función de ajuste personalizada en Amazon Bedrock. Se admite la formación distribuida para modelos muy grandes. SageMaker HyperPod
Escalabilidad y control de la infraestructura
Los servicios totalmente gestionados, como Amazon Bedrock, minimizan la administración de la infraestructura y son ideales para las organizaciones que priorizan la facilidad de uso y el cumplimiento. Las opciones semigestionadas, por ejemplo SageMaker JumpStart, ofrecen cierta flexibilidad con menos complejidad. Estas opciones son adecuadas para la creación rápida de prototipos o cuando se utilizan flujos de trabajo prediseñados. Los trabajos de SageMaker formación vienen acompañados de un control y una personalización HyperPod totales, pero estos requieren más experiencia y son ideales cuando es necesario ampliarlos para grandes conjuntos de datos o si se requieren procesos personalizados.
Supervisión de modelos ajustados
En el sector de la salud y las ciencias de la vida, la supervisión de los ajustes del LLM requiere el seguimiento de varios indicadores clave de rendimiento. La precisión proporciona una medida de referencia, pero debe equilibrarse con la precisión y la memoria, especialmente en aplicaciones en las que las clasificaciones erróneas tienen consecuencias importantes. La puntuación F1 ayuda a abordar los problemas de desequilibrio de clases que pueden ser comunes en los conjuntos de datos médicos. Para obtener más información, consulte la sección Evaluación LLMs de aplicaciones sanitarias y de ciencias de la vida de esta guía.
Las métricas de calibración ayudan a garantizar que los niveles de confianza del modelo coincidan con las probabilidades del mundo real. Las métricas de imparcialidad pueden ayudarle a detectar posibles sesgos en diferentes grupos demográficos de pacientes.
MLflowes una solución de código abierto que puede ayudarle a realizar un seguimiento de los experimentos de ajuste. MLflow es compatible de forma nativa con Amazon SageMaker AI, lo que le ayuda a comparar visualmente las métricas de las sesiones de entrenamiento. Para ajustar los trabajos en Amazon Bedrock, las métricas se transmiten a CloudWatch Amazon para que pueda visualizarlas en la consola. CloudWatch