

Las traducciones son generadas a través de traducción automática. En caso de conflicto entre la traducción y la version original de inglés, prevalecerá la version en inglés.

# Flotas gestionadas por servicios
<a name="smf-manage"></a>

Una flota gestionada por servicios (SMF) es una flota de trabajadores que tienen la configuración predeterminada proporcionada por Deadline Cloud. Estos ajustes predeterminados están diseñados para ser eficientes y rentables.

Algunas de las configuraciones predeterminadas limitan la cantidad de tiempo que pueden ejecutar los trabajadores y las tareas. Un trabajador solo puede ejecutarse durante siete días y una tarea solo cinco días. Cuando se alcanza el límite, la tarea o el trabajador se detiene. Si esto ocurre, es posible que pierda el trabajo que el trabajador o la tarea estaba ejecutando. Para evitarlo, supervisa a tus trabajadores y tus tareas para asegurarte de que no superen los límites de duración máxima. Para obtener más información sobre la supervisión de sus trabajadores, consulte[Uso del monitor Deadline Cloud](working-with-deadline-monitor.md).

## Cree una flota gestionada por el servicio
<a name="smf-create"></a>

Hay tres tipos de opciones de instancias que puede elegir para su flota gestionada por el servicio: puntual, bajo demanda y. wait-and-save Las instancias puntuales son una capacidad sin reservas que puede utilizar a un precio reducido, pero que puede verse interrumpida por las solicitudes bajo demanda. Las instancias bajo demanda tienen un precio por segundo, no tienen un compromiso a largo plazo y no se interrumpirán. Wait-and-savepermite retrasar la programación de los trabajos para reducir los costes y puede interrumpirse con solicitudes puntuales y bajo demanda.

1. Desde la [consola de Deadline Cloud](https://console.aws.amazon.com/deadlinecloud/home), navegue hasta la granja en la que desee crear la flota.

1. Selecciona la pestaña **Flotas** y, a continuación, selecciona **Crear flota**.

1. Introduce un **nombre** para tu flota.

1. (Opcional) Introduzca una **Descripción**. Una descripción clara puede ayudarle a identificar rápidamente el propósito de su flota.

1. Seleccione el tipo **de flota gestionada por el servicio**.

1. Elija la opción de mercado **puntual**, **bajo demanda** o **Wait and Save** para su flota. De forma predeterminada, las flotas utilizan la opción Spot.

1. Para acceder al servicio de su flota, seleccione un rol existente o cree uno nuevo. Un rol de servicio proporciona credenciales a las instancias de la flota, lo que les otorga permiso para procesar los trabajos, y a los usuarios del monitor para que puedan leer la información de registro.

1. Elija **Siguiente**.

1. Elija entre instancias de solo CPU o instancias aceleradas por GPU. Las instancias aceleradas por GPU pueden procesar sus trabajos más rápido, pero pueden resultar más caras.

1. Seleccione el sistema operativo para sus trabajadores. Puede dejar el predeterminado **Linux**o elegir **Windows**.

1. (Opcional) Si seleccionaste instancias aceleradas por GPU, establece el número máximo y mínimo de instancias GPUs en cada instancia. Para realizar pruebas, está limitado a una GPU. Para solicitar más para sus cargas de trabajo de producción, consulte [Solicitar un aumento de cuota](https://docs.aws.amazon.com/servicequotas/latest/userguide/request-quota-increase.html) en la *Guía del usuario de Service Quotas*.

1. Introduzca el **v** mínimo y máximo CPUs que necesita para su flota.

1. Introduzca la **memoria** mínima y máxima que necesita para su flota.

1. (Opcional) Puede optar por permitir o excluir tipos de instancias específicos de su flota para asegurarse de que solo esos tipos de instancias se usen en esta flota.

1. (Opcional) Defina el número máximo de instancias para escalar la flota de modo que haya capacidad disponible para los trabajos de la cola. Le recomendamos que deje el número mínimo de instancias establecido **0** para garantizar que la flota libere todas las instancias cuando no haya ningún trabajo en cola. 

1. (Opcional) Puede especificar el tamaño del volumen gp3 de Amazon Elastic Block Store (Amazon EBS) que se adjuntará a los trabajadores de esta flota. Para obtener más información, consulte la guía del usuario de [EBS.](https://docs.aws.amazon.com/ebs/latest/userguide/general-purpose.html#gp3-ebs-volume-type) 

1. Elija **Siguiente**.

1. (Opcional) Defina capacidades de trabajo personalizadas que definan las características de esta flota y que puedan combinarse con las capacidades de hospedaje personalizadas especificadas en las solicitudes de trabajo. Un ejemplo es un tipo de licencia concreto si planea conectar su flota a su propio servidor de licencias.

1. Elija **Siguiente**.

1. (Opcional) Para asociar su flota a una cola, seleccione una **cola en el menú** desplegable. Si la cola está configurada con el entorno de conda colas predeterminado, su flota recibirá automáticamente paquetes compatibles con las aplicaciones y renderizadores de DCC de los socios. Para obtener una lista de los paquetes proporcionados, consulte. [Entorno de conda colas predeterminado](create-queue-environment.md#conda-queue-environment)

1. Elija **Siguiente**.

1. (Opcional) Para añadir una etiqueta a su flota, seleccione **Añadir nueva etiqueta** y, a continuación, introduzca la **clave** y el **valor** de esa etiqueta.

1. Elija **Siguiente**.

1. Revisa la configuración de tu flota y, a continuación, selecciona **Crear flota**. 

# Usa un acelerador de GPU
<a name="smf-gpu"></a>

Puede configurar los hosts de los trabajadores en sus flotas gestionadas por el servicio para que utilicen uno o más GPUs a fin de acelerar el procesamiento de sus trabajos. El uso de un acelerador puede reducir el tiempo que se tarda en procesar un trabajo, pero puede aumentar el coste de cada instancia de trabajo. Deberías probar tus cargas de trabajo para entender las ventajas y desventajas entre una flota que utilice aceleradores de GPU y otras que no los utilicen.

GPUs no están disponibles para flotas con instancias. wait-and-save

**nota**  
Para fines de prueba, está limitado a una GPU. Para solicitar más para sus cargas de trabajo de producción, consulte [Solicitar un aumento de cuota](https://docs.aws.amazon.com/servicequotas/latest/userguide/request-quota-increase.html) en la *Guía del usuario de Service Quotas*.

Usted decide si su flota utilizará aceleradores de GPU cuando especifique las capacidades de la instancia de trabajo. Si decide utilizarlos GPUs, puede especificar el número mínimo y máximo de cada instancia, los tipos GPUs de chips de GPU que se van a utilizar y el controlador de tiempo de ejecución para cada instancia. GPUs

Los aceleradores de GPU disponibles son:
+ `T4`- GPU NVIDIA T4 Tensor Core
+ `A10G`- GPU NVIDIA A10G Tensor Core
+ `L4`- GPU NVIDIA L4 Tensor Core
+ `L40s`- GPU NVIDIA L40S Tensor Core

Puede elegir entre los siguientes controladores de tiempo de ejecución:
+ `Latest`- Utilice el último tiempo de ejecución disponible para el chip. Si lo especifica `latest` y se publica una nueva versión del tiempo de ejecución, se utilizará la nueva versión del tiempo de ejecución.
+ `grid:r570`- [Software NVIDIA vGPU 18](https://docs.nvidia.com/vgpu/18.0/index.html)
+ `grid:r550`(obsoleto): software [NVIDIA vGPU 17](https://docs.nvidia.com/vgpu/17.0/index.html)

Si no especificas un tiempo de ejecución, Deadline Cloud `latest` lo usa como predeterminado. Sin embargo, si tienes varios aceleradores y especificas `latest` algunos y dejas otros en blanco, Deadline Cloud genera una excepción.

# Licencias de software para flotas gestionadas por servicios
<a name="smf-licensing"></a>

Deadline Cloud ofrece licencias basadas en el uso (UBL) para los paquetes de software más utilizados. Los paquetes de software compatibles se licencian automáticamente cuando se ejecutan en una flota gestionada por un servicio. No necesita configurar ni mantener un servidor de licencias de software. Las licencias se amplían para que no se le acaben los trabajos más grandes. 

Puedes instalar paquetes de software compatibles con UBL mediante el canal conda integrado de Deadline Cloud, o puedes usar tus propios paquetes. Para obtener más información sobre el canal conda, consulte. [Cree un entorno de colas](create-queue-environment.md)

Para obtener una lista de los paquetes de software compatibles e información sobre los precios de UBL, consulte los precios de [AWS Deadline Cloud](https://aws.amazon.com/deadline-cloud/pricing/). 

## Traiga su propia licencia con flotas gestionadas por el servicio
<a name="bring-your-own"></a>

Con las licencias basadas en el uso (UBL) de Deadline Cloud, no necesitas gestionar acuerdos de licencia independientes con los proveedores de software. Sin embargo, si ya tienes licencias o necesitas usar software que no está disponible a través de la UBL, puedes usar tus propias licencias de software con tus flotas gestionadas por los servicios de Deadline Cloud. Conecta su SMF al servidor de licencias de software a través de Internet para solicitar una licencia para cada trabajador de la flota.

Para ver un ejemplo de conexión a un servidor de licencias mediante un proxy, consulte [Conectar flotas gestionadas por el servicio a un servidor de licencias personalizado](https://docs.aws.amazon.com/deadline-cloud/latest/developerguide/smf-byol.html) en la Guía para desarrolladores de *Deadline Cloud*.

# Compatibilidad con el VFX Reference Platform
<a name="smf-vfx"></a>

VFX Reference PlatformEs una plataforma objetivo común para la industria de los efectos visuales. Para utilizar la instancia Amazon EC2 de flota gestionada por servicios estándar que ejecuta Amazon Linux 2023 con un software compatible con VFX Reference Platform la, debe tener en cuenta las siguientes consideraciones al utilizar una flota gestionada por servicios.

Se actualiza anualmente. VFX Reference Platform Estas consideraciones a la hora de utilizar flotas gestionadas por el servicio Deadline Cloud que AL2023 incluyen Deadline Cloud se basan en las plataformas de referencia del año natural (CY) de 2022 a 2024. Para obtener más información, consulte [https://vfxplatform.com/](https://vfxplatform.com/).

**nota**  
Si va a crear un custom Amazon Machine Image (AMI) para una flota gestionada por el cliente, puede añadir estos requisitos al preparar la instancia de Amazon EC2.

Para utilizar el software VFX Reference Platform compatible en una instancia Amazon EC2 AL2023, tenga en cuenta lo siguiente:
+ La versión de glibc que se instala con ella AL2023 es compatible para su uso en tiempo de ejecución, pero no para la creación de software compatible con esta versión o con versiones anteriores. VFX Reference Platform CY2024 
+ Python 3.9 y 3.11 se proporcionan con la flota gestionada por el servicio, lo que lo hace compatible con y. VFX Reference Platform CY2022 CY2024 Python 3.7 y 3.10 no se proporcionan en la flota gestionada por el servicio. El software que los requiera debe proporcionar la instalación de Python en la cola o en el entorno de trabajo.
+ Algunos componentes de la biblioteca Boost que se proporcionan en la flota de servicios gestionados son de la versión 1.75, que no es compatible con la. VFX Reference Platform Si su aplicación usa Boost, debe proporcionar su propia versión de la biblioteca para garantizar la compatibilidad.
+ La actualización 3 de Intel TBB se incluye en la flota de servicios gestionados. Esta versión es compatible con VFX Reference Platform CY2022, y CY2023. CY2024
+ La flota gestionada por el VFX Reference Platform servicio no proporciona otras bibliotecas con versiones especificadas en el. Debe proporcionar a la biblioteca cualquier aplicación que se utilice en una flota gestionada por un servicio. Para obtener una lista de bibliotecas, consulte la plataforma de [referencia](https://vfxplatform.com/).

# Contenido del software AMI para trabajadores
<a name="ami-contents"></a>

Esta sección proporciona información sobre el software instalado en los trabajadores gestionados por el servicio de AWS Deadline CloudAmazon Machine Image. AMIs

AWS Los servidores gestionados por Deadline Cloud AMIs se basan en Windows Server 2022 y Amazon Linux 2023 e incluyen software adicional instalado específicamente para soportar cargas de trabajo de renderizado. Estos AMIs se actualizan continuamente para mantener su funcionalidad.

El software que contienen AMIs está organizado en una de las siguientes categorías de soporte:

Paquetes de software proporcionados por el servicio  
Software instalado y mantenido específicamente para renderizar cargas de trabajo

Software de sistema adicional  
Cualquier otro software que pueda cambiar sin previo aviso

## Paquetes de software proporcionados por el servicio
<a name="ami-contents-software-packages"></a>

Estos paquetes de software se instalan para admitir las cargas de trabajo de renderizado y se mantienen para garantizar la compatibilidad. Puede depender de estos paquetes de forma segura.

### Herramientas y lenguajes de desarrollo
<a name="ami-contents-development-tools-languages"></a>

**Linux (AL2023):**
+ Python 3.11
+ Git

**Windows(Servidor 2022):**
+ Python 3.11
+ Git para Windows

### AWS herramientas
<a name="ami-contents-aws-tools"></a>

**Ambas plataformas:**
+ AWS Interfaz de línea de comandos v2 (AWS CLI v2)

### Bibliotecas y utilidades del sistema
<a name="ami-contents-system-libraries-utilities"></a>

**Linux:**
+ FUSE y FUSE3 bibliotecas para operaciones del sistema de archivos
+ Bibliotecas de imágenes
  + libpng
  + libjpeg
  + libtiff
+ Bibliotecas OpenGL
  + mesa-libGLU
  + mesa-libGL
  + mesa-libEGL
  + libglvnd-opengl
+ Bibliotecas de desarrollo:
  + json-c (análisis de JSON)
  + libnsl (biblioteca de servicios de red)
  + libxcrypt-compat (compatibilidad de cifrado)
+ Bibliotecas X Window
  + libXmu
  + libXpm
  + libXinerama
  + libXcomposite
  + libXrender
  + libXrandr
  + libXcursor
  + libXi
  + libxdamage
  + libXTst
  + libxkbcommon
  + LibSM
+ Utilidades de red y sistema
  + tcsh

### Flotas aceleradas por GPU
<a name="ami-contents-gpu-fleets"></a>
+ Controladores Nvidia Grid

### Administradores de paquetes
<a name="ami-contents-package-managers"></a>

**Linux:**
+ Gestor de paquetes Conda/MAMBA (instalado en) `/opt/conda`
+ Gestor de paquetes DNF (paquetes del sistema)
+ pip (instalador de paquetes de Python)

**Windows:**
+ Gestor de paquetes Conda/MAMBA (instalado en) `C:\ProgramData\conda`
+ pip (instalador de paquetes de Python)

### Software de sistema adicional
<a name="ami-contents-additional-software"></a>

El resto del software de la AMI se puede actualizar, eliminar o cambiar sin previo aviso. No dependa de ningún software que no figure explícitamente en la sección anterior sobre *paquetes de software compatibles*. Esta restricción incluye, pero no se limita a:
+ Paquetes y bibliotecas del sistema operativo
+ Componentes de administración de servicios
+ Controladores y software AMI básicos
+ Dependencias de software y bibliotecas de tiempo de ejecución
+ Herramientas y utilidades de configuración del sistema

#### Ejemplos adicionales de software del sistema
<a name="additional-system-software-examples"></a>

**Linux:** Los paquetes de sistema, como systemd, los módulos del núcleo, los controladores de hardware, los componentes de red y las bibliotecas de soporte, se instalan como parte de la AL2023 distribución base.

**Windows:** componentes Windows del sistema, Microsoft Edge, software de servicio Amazon EC2, controladores de hardware y componentes de Windows tiempo de ejecución.

### Prácticas recomendadas
<a name="ami-contents-best-practices"></a>

**Administración de dependencias**: solo tome en cuenta las dependencias del software que se indica en la sección *Paquetes de software compatibles*.

**Versiones de paquetes**: para versiones de software específicas, instale paquetes específicos mediante administradores de paquetes (como pip, conda y más) en lugar de confiar en las versiones proporcionadas por AMI.

**Aislamiento del entorno**: utilice entornos virtuales (como los entornos Python, venv y conda) para aislar sus dependencias específicas.

### Modelo de actualización de AMI
<a name="ami-contents-update-model"></a>

Tenga en cuenta la siguiente información sobre cómo se actualiza la AMI de los trabajadores.
+  AMIs Los trabajadores se actualizan continuamente sin un sistema de control de versiones.
+ Las actualizaciones se producen automáticamente como parte de la operación del servicio.
+ No se proporciona un sistema de notificación anticipada para las actualizaciones de la AMI.