Configuración de la inferencia para un modelo personalizado - Amazon Bedrock

Las traducciones son generadas a través de traducción automática. En caso de conflicto entre la traducción y la version original de inglés, prevalecerá la version en inglés.

Configuración de la inferencia para un modelo personalizado

Tras crear un modelo personalizado, puede configurar la inferencia mediante una de las siguientes opciones:

  • Adquirir rendimiento aprovisionado: compre rendimiento aprovisionado para su modelo para configurar una capacidad de computación dedicada con un rendimiento garantizado a fin de lograr un rendimiento uniforme y una latencia más baja.

    Para obtener más información sobre el rendimiento aprovisionado, consulte Aumento de la capacidad de invocación de modelos con el rendimiento aprovisionado en Amazon Bedrock. Para obtener más información sobre el uso de modelos personalizados con rendimiento aprovisionado, consulte Adquisición de rendimiento aprovisionado para un modelo personalizado.

  • Implementar la inferencia bajo demanda para un modelo personalizado: para configurar la inferencia bajo demanda, el modelo se implementa con una implementación de modelo personalizado. Después de implementar el modelo, lo invoca mediante el ARN para la implementación del modelo personalizado. Con la inferencia bajo demanda, solo paga por lo que utiliza y no necesita configurar recursos de computación aprovisionados.

    Para obtener más información sobre la implementación de modelos personalizados para la inferencia bajo demanda, consulte Implementar un modelo personalizado para inferencia bajo demanda.