Modele estrategias de ejecución para cargas de trabajo de IA - AWS Guía prescriptiva

Las traducciones son generadas a través de traducción automática. En caso de conflicto entre la traducción y la version original de inglés, prevalecerá la version en inglés.

Modele estrategias de ejecución para cargas de trabajo de IA

En el centro de cualquier arquitectura de IA se encuentra la capa de ejecución del modelo, el componente que realiza inferencias, potencia las predicciones o genera contenido. AWS ofrece dos potentes rutas listas para no tener servidores para ejecutar cargas de trabajo de IA:

Al comprender cuándo y cómo usar cada uno de ellos Servicio de AWS, las empresas pueden optimizar tanto las necesidades empresariales como la eficiencia operativa.

Amazon Bedrock: modelos básicos como servicio

Amazon Bedrock es un servicio totalmente gestionado que proporciona acceso sin servidor a los principales proveedores FMs de IA, como Anthropic (Claude), Meta (Llama) MistralCohere, y Amazon Titan Amazon Nova. Puede interactuar con estos modelos mediante simples llamadas a la API, sin necesidad de aprovisionar la infraestructura GPUs, administrar ni ajustar los modelos.

Entre las principales funciones de Amazon Bedrock se incluyen las siguientes:

  • Generación de texto: resumen, reescritura, creación de contenido y preguntas y respuestas.

  • Generación de código: lenguaje natural para codificar.

  • Clasificación y extracción: etiquetado, análisis y etiquetado semántico.

  • Flujos de trabajo RAG: intégrelos con las bases de conocimiento para obtener respuestas fundamentadas.

  • Agentes: permiten la orquestación autónoma y el uso de herramientas.

  • Inteligencia multimodal: a través de Amazon Nova, comprenda y genere textos, imágenes y videos.

  • Soporte de afinación y destilación: a través de Amazon Nova Premier, entrene modelos para tareas específicas o cree modelos compactos para estudiantes.

  • Rendimiento y coste escalonados: seleccione entre los modelos Amazon Nova Micro, Nova Lite, Nova Pro y Nova Premier para equilibrar la latencia, la precisión y el precio.

Los beneficios operativos de Amazon Bedrock incluyen los siguientes:

  • Administración de modelos: no se requiere el alojamiento de modelos ni el control de versiones.

  • Manejo seguro de los datos: entorno de inquilinos aislado y sin formación sobre los datos de los usuarios.

  • Facturación basada en fichas: proporciona un modelo de costes predecible.

  • Unificación de API multimodal: gestiona input/output imágenes, vídeos y textos a través de la misma interfaz de Amazon Bedrock.

  • Opciones de baja latencia: disponibles con Amazon Nova Micro y Nova Lite, son ideales para aplicaciones de IA generativa avanzadas y orientadas al usuario.

  • Compatibilidad básica empresarial: todos los modelos de Amazon Nova son compatibles con las arquitecturas Amazon Bedrock Knowledge Bases y Retrieval Augmented Generation (RAG).

Amazon Bedrock se integra con otras Servicios de AWS funciones de las siguientes maneras:

Casos de uso ideales para Amazon Bedrock

Amazon Bedrock es ideal para una variedad de escenarios, como los siguientes:

  • Tareas generativas de IA: cree contenido y documentación de marketing y potencie los chatbots.

  • Asistentes conversacionales: cree bots de apoyo y copilotos internos.

  • Recuperación de conocimientos: utilícelo para tareas de resumen y búsqueda semántica.

  • Planificación dinámica: potencia los sistemas de decisión basados en agentes.

  • Generación multimodal: utilice Amazon Nova Canvas para generar imágenes y Amazon Nova Reel para producir vídeos a partir de indicaciones y un contexto estructurado.

  • Asistentes empresariales: utilice Amazon Nova Pro para habilitar herramientas de toma de decisiones basadas en objetivos y basadas en datos patentados.

  • Comentarios sobre la experiencia del usuario en tiempo real: analice y responda a las acciones de los clientes con una latencia inferior a 100 ms mediante Amazon Nova Micro.

Inferencia de Amazon SageMaker Serverless: alojamiento de modelos personalizados

Amazon SageMaker Serverless Inference está diseñado para desarrolladores y científicos de datos que han entrenado sus propios modelos (por ejemplo,, XGBoost PyTorchScikit-learn, yTensorFlow). Al utilizar SageMaker Serverless Inference, pueden implementar sus modelos en un entorno escalable y sin servidores.

A diferencia de Amazon Bedrock, SageMaker Serverless Inference le permite controlar la arquitectura del modelo, los datos de entrenamiento y la lógica.

Entre las principales funciones de la inferencia SageMaker sin servidor se incluyen las siguientes:

  • Alberga modelos de aprendizaje automático tradicionales, como la clasificación, la regresión, el procesamiento del lenguaje natural (NLP) y la previsión

  • Soporta puntos finales multimodelo

  • Admite el escalado automático para que la computación se aprovisione bajo demanda y se apague cuando esté inactiva

  • Realiza inferencias en imágenes de contenedores personalizadas o marcos de aprendizaje automático prediseñados

Los beneficios operativos de la inferencia SageMaker sin servidor incluyen los siguientes:

  • Pay-per-inference modelo con cero costes de inactividad

  • Terminales totalmente gestionados y sin configuración de servidor

  • Se integra con los programas de formación y los cuadernos

SageMaker Serverless Inference se integra con otras funciones de Servicios de AWS las siguientes maneras:

  • Se invoca mediante AWS Lambda Step Functions o llamadas al SDK y a la API

  • Funciona con SageMaker Pipelines para operaciones end-to-end de aprendizaje automático () MLOps

  • Registros y métricas integrados con Amazon CloudWatch

Casos de uso ideales para la SageMaker inferencia sin servidor

SageMaker La inferencia sin servidor es una buena opción para varias aplicaciones de aprendizaje automático:

  • Análisis predictivo: se utiliza para los modelos de previsión de ventas y predicción de la pérdida de clientes.

  • Clasificación de texto: admite tareas como la detección de spam y el análisis de opiniones.

  • Clasificación de imágenes: permite aplicaciones de reconocimiento óptico de caracteres (OCR) de documentos y de imágenes médicas.

  • Procesamiento de lenguaje natural (NLP) personalizado: gestiona las tareas de reconocimiento de entidades y etiquetado de documentos.

Cómo elegir entre Amazon Bedrock y SageMaker Serverless Inference

Tanto Amazon Bedrock como SageMaker Serverless Inference ofrecen rutas sin servidor para una ejecución de IA escalable y lista para la producción. En conjunto, forman la capa de ejecución central de las arquitecturas de IA modernas, basadas en eventos y sin servidores. AWS En la siguiente tabla se comparan estos servicios en todas las dimensiones clave.

Dimensión

Amazon Bedrock

SageMaker Inferencia sin servidor

Tipo de modelo

Modelos básicos () LLMs

Modelos de aprendizaje automático entrenados a medida

Esfuerzo de configuración

Mínimo (sin formación ni alojamiento)

Requiere formación y embalaje de modelos

Caso de uso

Generativo, conversacional y semántico

Datos predictivos, numéricos y estructurados

Escalabilidad

Totalmente sin servidor y con escalado automático

Totalmente sin servidor y con escalado automático

Modelo de costos

Pague por token

Pago por inferencia

Integración

API Gateway, Lambda, Amazon Bedrock Agents y RAG

Lambda, Step Functions y pipelines CI/CD

Se requiere afinación

Ninguno (tiro cero o pocos tiros)

Control total (hiperparámetros y reentrenamiento)

La elección del servicio adecuado depende de la naturaleza de su carga de trabajo de IA:

  • Utilice Amazon Bedrock cuando necesite flexibilidad semántica, flujos de trabajo basados en objetivos y una iteración rápida con modelos básicos.

  • Utilice la inferencia SageMaker sin servidor cuando tenga modelos patentados, entradas estructuradas o necesite un control total sobre la formación y la implementación.

  • Úselo SageMaker JumpStart para elegir entre cientos de algoritmos integrados con modelos previamente entrenados de centros de modelos, incluidos TensorFlow Hub, PyTorch Hub y. Hugging Face MxNet GluonCV