

翻訳は機械翻訳により提供されています。提供された翻訳内容と英語版の間で齟齬、不一致または矛盾がある場合、英語版が優先します。

# サービスマネージドフリート
<a name="smf-manage"></a>

サービスマネージドフリート (SMF) は、Deadline Cloud によってデフォルト設定が提供されているワーカーのフリートです。これらのデフォルト設定は、効率的で費用対効果が高いように設計されています。

一部のデフォルト設定では、ワーカーとタスクが実行できる時間が制限されます。ワーカーは 7 日間のみ実行でき、タスクは 5 日間のみ実行できます。制限に達すると、タスクまたはワーカーは停止します。この場合、ワーカーまたはタスクが実行されていた作業が失われる可能性があります。これを回避するには、ワーカーとタスクをモニタリングして、最大期間制限を超えないようにします。ワーカーのモニタリングの詳細については、「」を参照してください[Deadline Cloud モニターの使用](working-with-deadline-monitor.md)。

## サービスマネージドフリートを作成する
<a name="smf-create"></a>

サービスマネージドフリートには、スポット、オンデマンド、wait-and-saveの 3 種類のインスタンスオプションを選択できます。スポットインスタンスは、割引価格で使用できる予約されていない容量ですが、オンデマンドリクエストによって中断される可能性があります。オンデマンドインスタンスの料金は 2 番目で、長期的なコミットメントはなく、中断されません。Wait-and-save は、ジョブのスケジュールを遅らせてコストを削減し、オンデマンドリクエストやスポットリクエストによって中断できます。

1. [Deadline Cloud コンソール](https://console.aws.amazon.com/deadlinecloud/home)から、フリートを作成するファームに移動します。

1. **フリート**タブを選択し、**フリートの作成**を選択します。

1. フリート**の名前**を入力します。

1. (オプション) **[説明]** を入力します。明確な説明は、フリートの目的をすばやく特定するのに役立ちます。

1. **サービスマネージド**フリートタイプを選択します。

1. フリートの**スポット**、**オンデマンド**、またはインスタンスマーケットの**待機と保存**オプションを選択します。デフォルトでは、フリートはスポットオプションを使用します。

1. フリートのサービスアクセスの場合は、既存のロールを選択するか、新しいロールを作成します。サービスロールは、フリート内のインスタンスに認証情報を提供し、ジョブを処理するアクセス許可と、ログ情報を読み取れるようにモニター内のユーザーに付与します。

1. [**次へ**] を選択します。

1. CPU 専用インスタンスまたは GPU アクセラレーションインスタンスのいずれかを選択します。GPU アクセラレーションインスタンスはジョブをより迅速に処理できる場合がありますが、コストがかかる場合があります。

1. ワーカーのオペレーティングシステムを選択します。デフォルトのまま**Linux**にするか、 を選択できます**Windows**。

1. (オプション) GPU アクセラレーションインスタンスを選択した場合は、各インスタンスの GPUs の最大数と最小数を設定します。テスト目的では、1 つの GPU に制限されます。本稼働ワークロードの詳細をリクエストするには、[「Service Quotas ユーザーガイド」の「クォータの引き上げのリクエスト](https://docs.aws.amazon.com/servicequotas/latest/userguide/request-quota-increase.html)」を参照してください。 *Service Quotas *

1. フリートに必要な最小 **vCPUs**を入力します。

1. フリートに必要な最小メモリと最大**メモリ**を入力します。

1. (オプション) フリートから特定のインスタンスタイプを許可または除外して、それらのインスタンスタイプのみがこのフリートに使用されるようにすることができます。

1. (オプション) インスタンスの最大数を設定してフリートをスケーリングし、キュー内のジョブで容量を使用可能にします。キューに入れられたジョブがないときにフリートがすべてのインスタンスを解放するように**0**、最小数のインスタンスを に残しておくことをお勧めします。

1. (オプション) このフリートのワーカーにアタッチされる Amazon Elastic Block Store (Amazon EBS) gp3 ボリュームのサイズを指定できます。詳細については、[EBS ユーザーガイド](https://docs.aws.amazon.com/ebs/latest/userguide/general-purpose.html#gp3-ebs-volume-type)を参照してください。

1. [**次へ**] を選択します。

1. (オプション) このフリートの機能を定義するカスタムワーカー機能を定義し、ジョブの送信で指定されたカスタムホスト機能と組み合わせることができます。フリートを独自のライセンスサーバーに接続する場合は、特定のライセンスタイプが例として挙げられます。

1. [**次へ**] を選択します。

1. (オプション) フリートをキューに関連付けるには、ドロップダウンから**キュー**を選択します。キューがデフォルトのcondaキュー環境で設定されている場合、フリートにはパートナーの DCC アプリケーションとレンダラーをサポートするパッケージが自動的に提供されます。提供されているパッケージのリストについては、「」を参照してください[デフォルトのcondaキュー環境](create-queue-environment.md#conda-queue-environment)。

1. [**次へ**] を選択します。

1. (オプション) フリートにタグを追加するには、**新しいタグを追加**を選択し、そのタグの**キー**と**値**を入力します。

1. [**次へ**] を選択します。

1. フリート設定を確認し、フリー**トの作成**を選択します。

# GPU アクセラレーターを使用する
<a name="smf-gpu"></a>

1 つ以上の GPUs を使用してジョブの処理を高速化するように、サービスマネージドフリートでワーカーホストを設定できます。アクセラレーターを使用すると、ジョブの処理にかかる時間を短縮できますが、各ワーカーインスタンスのコストが増加する可能性があります。GPU アクセラレーターとそうでないフリートとのトレードオフを理解するには、ワークロードをテストする必要があります。

GPUsは、wait-and-saveのインスタンスを持つフリートでは使用できません。

**注記**  
テスト目的では、1 つの GPU に制限されます。本稼働ワークロードの詳細をリクエストするには、[「Service Quotas ユーザーガイド」の「クォータの引き上げのリクエスト](https://docs.aws.amazon.com/servicequotas/latest/userguide/request-quota-increase.html)」を参照してください。 *Service Quotas *

ワーカーインスタンス機能を指定するときに、フリートが GPU アクセラレーターを使用するかどうかを決定します。GPUs を使用する場合は、各インスタンスの GPUs の最小数と最大数、使用する GPU チップのタイプ、GPUs のランタイムドライバーを指定できます。

使用可能な GPU アクセラレーターは次のとおりです。
+ `T4` - NVIDIA T4 Tensor コア GPU
+ `A10G` - NVIDIA A10G Tensor コア GPU
+ `L4` - NVIDIA L4 Tensor コア GPU
+ `L40s` - NVIDIA L40S Tensor Core GPU

次のランタイムドライバーから選択できます。
+ `Latest` - チップで使用できる最新のランタイムを使用します。を指定`latest`し、ランタイムの新しいバージョンがリリースされると、ランタイムの新しいバージョンが使用されます。
+ `grid:r570` - [NVIDIA vGPU ソフトウェア 18](https://docs.nvidia.com/vgpu/18.0/index.html)
+ `grid:r550` (非推奨) - [NVIDIA vGPU ソフトウェア 17](https://docs.nvidia.com/vgpu/17.0/index.html)

ランタイムを指定しない場合、Deadline Cloud はデフォルト`latest`として を使用します。ただし、複数のアクセラレーターがあり、一部のアクセラレーター`latest`に を指定し、他のアクセラレーターを空白のままにすると、Deadline Cloud は例外を発生させます。

# サービスマネージドフリートのソフトウェアライセンス
<a name="smf-licensing"></a>

Deadline Cloud は、一般的に使用されるソフトウェアパッケージの使用ベースのライセンス (UBL) を提供します。サポートされているソフトウェアパッケージは、サービスマネージドフリートで実行されると、自動的にライセンスされます。ソフトウェアライセンスサーバーを設定または保守する必要はありません。ライセンスはスケーリングされるため、大規模なジョブでは使い果たされません。

組み込みの Deadline Cloud conda チャネルを使用して UBL をサポートするソフトウェアパッケージをインストールするか、独自のパッケージを使用できます。conda チャネルの詳細については、「」を参照してください[キュー環境を作成する](create-queue-environment.md)。

サポートされているソフトウェアパッケージのリストと UBL の料金については、[AWS 「Deadline Cloud の料金](https://aws.amazon.com/deadline-cloud/pricing/)」を参照してください。

## サービスマネージドフリートで独自のライセンスを使用する
<a name="bring-your-own"></a>

Deadline Cloud 使用量ベースのライセンス (UBL) では、ソフトウェアベンダーとの個別のライセンス契約を管理する必要はありません。ただし、既存のライセンスがある場合、または UBL で利用できないソフトウェアを使用する必要がある場合は、Deadline Cloud サービスマネージドフリートで独自のソフトウェアライセンスを使用できます。インターネット経由で SMF をソフトウェアライセンスサーバーに接続して、フリート内の各ワーカーのライセンスをチェックアウトします。

プロキシを使用してライセンスサーバーに接続する例については、*「Deadline Cloud Developer Guide*」の[「Connect service-managed fleets to a custom license server](https://docs.aws.amazon.com/deadline-cloud/latest/developerguide/smf-byol.html)」を参照してください。

# VFX Reference Platform の互換性
<a name="smf-vfx"></a>

VFX Reference Platform は VFX 業界共通のターゲットプラットフォームです。をサポートするソフトウェアで Amazon Linux 2023 を実行する標準サービスマネージドフリート Amazon EC2 インスタンスを使用するにはVFX Reference Platform、サービスマネージドフリートを使用するときに以下の考慮事項に留意する必要があります。

VFX Reference Platform は毎年更新されます。Deadline Cloud サービスマネージドフリートを含む AL2023 を使用する際のこれらの考慮事項は、2022 年から 2024 年までの暦年 (CY) リファレンスプラットフォームに基づいています。詳細については、「[https://vfxplatform.com/](https://vfxplatform.com/)」を参照してください。

**注記**  
カスタマーマネージドフリートのカスタム Amazon Machine Image (AMI) を作成する場合は、Amazon EC2 インスタンスを準備するときにこれらの要件を追加できます。

AL2023 Amazon EC2 インスタンスでVFX Reference Platformサポートされているソフトウェアを使用するには、次の点を考慮してください。
+ AL2023 と共にインストールされる glibc バージョンはランタイム用に互換性がありますが、CY2024 VFX Reference Platform 以前と互換性のあるソフトウェアの構築には互換性がありません。
+ Python 3.9 および 3.11 にはサービスマネージドフリートが用意されており、CY2022 および VFX Reference Platform CY2024 と互換性があります。Python 3.7 および 3.10 は、サービスマネージドフリートでは提供されません。それらを必要とするソフトウェアは、キューまたはジョブ環境に Python インストールを提供する必要があります。
+ サービスマネージドフリートで提供される一部の Boost ライブラリコンポーネントはバージョン 1.75 であり、 と互換性がありませんVFX Reference Platform。アプリケーションが Boost を使用している場合は、互換性のためにライブラリの独自のバージョンを指定する必要があります。
+ Intel TBB 更新 3 は、サービスマネージドフリートで提供されます。このバージョンはVFX Reference Platform、CY2022, CY2023、および CY2024 と互換性があります。
+ で指定されたバージョンを持つ他のライブラリVFX Reference Platformは、サービスマネージドフリートによって提供されません。サービスマネージドフリートで使用されるすべてのアプリケーションをライブラリに提供する必要があります。ライブラリのリストについては、「 [リファレンスプラットフォーム](https://vfxplatform.com/)」を参照してください。

# ワーカー AMI ソフトウェアの内容
<a name="ami-contents"></a>

このセクションでは、Deadline Cloud AWS のサービスマネージドワーカー (AMIs) にインストールAmazon Machine Imageされるソフトウェアについて説明します。

AWS Deadline Cloud のサービスマネージドワーカー AMIs は、WindowsServer 2022 と Amazon Linux 2023 の両方に基づいており、レンダリングワークロードをサポートするために特別にインストールされた追加のソフトウェアが含まれています。これらの AMIs は、機能を維持するために継続的に更新されます。

これらの AMIsは、次のいずれかのサポートカテゴリに分類されます。

サービスが提供するソフトウェアパッケージ  
ワークロードのレンダリング用に特別にインストールおよび保守されているソフトウェア

追加のシステムソフトウェア  
予告なしに変更される可能性のある他のすべてのソフトウェア

## サービスが提供するソフトウェアパッケージ
<a name="ami-contents-software-packages"></a>

これらのソフトウェアパッケージは、レンダリングワークロードをサポートするためにインストールされ、互換性のために維持されます。これらのパッケージへの依存関係を安全に取得できます。

### 開発ツールと言語
<a name="ami-contents-development-tools-languages"></a>

**Linux (AL2023):**
+ Python 3.11
+ Git

**Windows (Server 2022):**
+ Python 3.11
+ の Git Windows

### AWS ツール
<a name="ami-contents-aws-tools"></a>

**両方のプラットフォーム:**
+ AWS コマンドラインインターフェイス v2 (AWS CLI v2)

### システムライブラリとユーティリティ
<a name="ami-contents-system-libraries-utilities"></a>

**Linux:**
+ ファイルシステムオペレーション用の FUSE および FUSE3 ライブラリ
+ イメージライブラリ
  + libpng
  + libjpeg
  + libtiff
+ OpenGL ライブラリ
  + mesa-libGLU
  + mesa-libGL
  + mesa-libEGL
  + libglvnd-opengl
+ 開発ライブラリ:
  + json-c (JSON 解析)
  + libnsl (ネットワークサービスライブラリ)
  + libxcrypt-compat (暗号化互換性)
+ X ウィンドウライブラリ
  + libXmu
  + libXpm
  + libXinerama
  + libXcomposite
  + libXrender
  + libXrandr
  + libXcursor
  + libXi
  + libxdamage
  + libXtst
  + libxkbcommon
  + libSM
+ ネットワークおよびシステムユーティリティ
  + tcsh

### GPU アクセラレーションフリート
<a name="ami-contents-gpu-fleets"></a>
+ Nvidia グリッドドライバー

### パッケージマネージャー
<a name="ami-contents-package-managers"></a>

**Linux:**
+ conda/Mamba パッケージマネージャー ( にインストール`/opt/conda`)
+ DNF パッケージマネージャー (システムパッケージ)
+ pip (Python パッケージインストーラ)

**Windows:**
+ conda/Mamba パッケージマネージャー ( にインストール`C:\ProgramData\conda`)
+ pip (Python パッケージインストーラ)

### 追加のシステムソフトウェア
<a name="ami-contents-additional-software"></a>

AMI 上の他のすべてのソフトウェアは、予告なしに更新、削除、または変更できます。上記の*「サポートされているソフトウェアパッケージ」セクションに明示的に記載されていないソフトウェア*には依存しないでください。この制限には以下が含まれますが、これらに限定されません。
+ オペレーティングシステムパッケージとライブラリ
+ サービス管理コンポーネント
+ 基本 AMI ソフトウェアとドライバー
+ ソフトウェアの依存関係とランタイムライブラリ
+ システム設定ツールとユーティリティ

#### その他のシステムソフトウェアの例
<a name="additional-system-software-examples"></a>

**Linux:** systemd、カーネルモジュール、ハードウェアドライバー、ネットワークコンポーネント、およびベース AL2023 ディストリビューションの一部としてインストールされるサポートライブラリなどのシステムパッケージ。

**Windows:** Windowsシステムコンポーネント、Microsoft Edge、Amazon EC2 サービスソフトウェア、ハードウェアドライバー、Windowsランタイムコンポーネント。

### ベストプラクティス
<a name="ami-contents-best-practices"></a>

**依存関係管理**: *サポートされているソフトウェアパッケージセクションに記載されているソフトウェア*にのみ依存します。

**パッケージバージョン**: 特定のソフトウェアバージョンでは、AMI が提供するバージョンに依存するのではなく、パッケージマネージャー (pip、conda など) を使用して特定のパッケージをインストールします。

**環境の分離**: 仮想環境 (Python venv や conda 環境など) を使用して、特定の依存関係を分離します。

### AMI 更新モデル
<a name="ami-contents-update-model"></a>

ワーカー AMI の更新方法に関する以下の情報に注意してください。
+ ワーカー AMIs はバージョニングシステムなしで継続的に更新されます。
+ 更新は、サービスオペレーションの一部として自動的に行われます。
+ AMI 更新には事前通知システムは提供されません。