Las traducciones son generadas a través de traducción automática. En caso de conflicto entre la traducción y la version original de inglés, prevalecerá la version en inglés.
4. Canalizaciones robustas y promoción
Las canalizaciones ofrecen muchas opciones para el ajuste de hiperparámetros, el AutoML y las rutinas de procesamiento. Las canalizaciones se registran de un extremo a otro. Las canalizaciones robustas pueden ejecutar la capacitación en paralelo en varias instancias y marcos al escalar los tamaños de carga según sea necesario. Las canalizaciones robustas pueden promover los modelos para que pasen a la fase de producción, se implementen en tiempo real, se transmitan o se distribuyan en lotes. Estas implementaciones pueden admitir la inferencia de un solo modelo o de varios modelos.
4.1 Entrenamiento distribuido y de gran escala |
Un sistema de ML maduro admite la capacidad de ejecutar el entrenamiento en grandes instancias optimizadas para la computación en paralelo. Cuenta con las herramientas necesarias para garantizar que estos recursos se utilicen en su totalidad y que la capacitación se escale de manera uniforme en todo el clúster de computación. |
4.2 Compatibilidad con varios marcos |
Los desarrolladores pueden portar diferentes marcos de plataformas, como PyTorch Flax, para realizar trabajos de formación e inferencia. Del mismo modo, se admiten y se pueden utilizar distintos idiomas y versiones. Cambiar a otro marco no estropeará el sistema. |
4.3 Ajuste de hiperparámetros |
Un paso del ajuste de hiperparámetros forma parte del proceso de capacitación. Los hiperparámetros de los modelos implementados se ajustan. Hay varias opciones disponibles para ajustar los hiperparámetros. Para mejorar la precisión, al menos una de las opciones de ajuste debe tener un enfoque o inferencia bayesiano. |
4.4 Opción de AutoML |
Para reducir la experimentación y la comparación manuales, un sistema de ML avanzado admite la ejecución de AutoML, que selecciona de manera automática la mejor canalización de características, hiperparámetros y modelo. Tenga en cuenta que AutoML es una característica que se puede utilizar de manera pragmática, pero no es una panacea. |
4.5 Compatibilidad con inferencias: tiempo real |
Esto se suele denominar modelo como servicio (MaaS). El sistema admite la inferencia en tiempo real con las operaciones de la API de REST, para hacer solicitudes de inferencia bajo demanda. Puede ofrecer una infraestructura de MaaS en la que el modelo puede escalarse horizontal y verticalmente como una API independiente o como un punto de conexión asociado a otras aplicaciones. Como alternativa, se puede implementar mediante tecnología sin servidor. |
4.6 Compatibilidad con inferencias: streaming |
Los modelos se pueden promover a un formato de inferencia en tiempo real, como Amazon Kinesis o Amazon Managed Streaming para Apache Kafka, mediante el cual la inferencia se ejecuta en streaming en el modelo. Esto requiere completar al menos el 90 % de la lista de verificación, ya que las barreras de protección, la observabilidad y la supervisión son esenciales para la inferencia en tiempo real. |
4.7 Compatibilidad con inferencias: por lotes |
El sistema admite la implementación por lotes de modelos como trabajos programados o iniciados. El sistema puede ejecutar modelos como parte de un proceso de extracción, transformación y carga (ETL) o de manera aislada. Los trabajos por lotes registran el estado de cada paso y se ejecutan siguiendo un patrón ordenado, como un gráfico acíclico dirigido. Como alternativa, los trabajos pueden escribir en una base de datos, que sirve como servidor de inferencia del modelo. |
4.8 Rutinas de preprocesamiento y posprocesamiento |
Cuando es necesario, los datos se caracterizan como parte del proceso de admisión del modelo o de los trabajos por lotes. Si hay varios modelos o varios pasos en juego, las rutinas de posprocesamiento se encargan de caracterizar los datos. |
4.9 Capacidad de invocar modelos jerárquicos o simultáneos |
El sistema del ML puede implementar muchos modelos juntos o ejecutarlos de manera secuencial. Lo primero significa alojar en un solo punto de conexión del modelo en toda una flota de recursos. Esto último implica que varios modelos deben ejecutarse de manera encadenada uno tras otro. El sistema puede administrar estos dos tipos de complejidad de manera resiliente. |
4.10 Estrategias de escalado vertical y horizontal |
Una canalización debe poder ser compatible con ambos tipos de estrategias de escalado, para el entrenamiento y para la inferencia. El sistema del ML puede aumentar su tamaño y distribuir el tráfico entre varias máquinas cuando aumentan la latencia o el rendimiento. Se establecen políticas para este tipo de comportamiento y tienen en cuenta la asignación óptima de los recursos. |
4.11 registro End-to-end |
El equipo de desarrollo debe tener el registro integrado en todo el código de canalización para que el registro pueda capturar las entradas, las salidas y los pasos intermedios del sistema. El registro debe permitir el seguimiento de las ejecuciones en la canalización y la depuración de errores. |