

Terjemahan disediakan oleh mesin penerjemah. Jika konten terjemahan yang diberikan bertentangan dengan versi bahasa Inggris aslinya, utamakan versi bahasa Inggris.

# Menggunakan `pcluster update-cluster`
<a name="using-pcluster-update-cluster-v3"></a>

Dalam AWS ParallelCluster 3.x, [`pcluster update-cluster`](pcluster.update-cluster-v3.md) menganalisis pengaturan yang digunakan untuk membuat cluster saat ini dan pengaturan dalam file konfigurasi untuk masalah. Jika ada masalah yang ditemukan, mereka dilaporkan, dan langkah-langkah yang harus diambil untuk memperbaiki masalah ditampilkan. Misalnya, jika komputasi [`InstanceType`](Scheduling-v3.md#yaml-Scheduling-SlurmQueues-ComputeResources-InstanceType)diubah, armada komputasi harus dihentikan sebelum pembaruan dapat dilanjutkan. Masalah ini dilaporkan ketika ditemukan. Jika tidak ada masalah pemblokiran yang ditemukan, proses pembaruan dimulai dan perubahan dilaporkan.

Anda dapat menggunakan [`pcluster update-cluster`](pcluster.update-cluster-v3.md) `--dryrun option` untuk melihat perubahan sebelum dijalankan. Untuk informasi selengkapnya, lihat [`pcluster update-cluster` contoh](#pcluster-update-cluster-examples).

Untuk panduan pemecahan masalah, lihat. [AWS ParallelCluster pemecahan masalah](troubleshooting-v3.md)

## Kebijakan Pembaruan: definisi
<a name="pcluster-update-policy-definitions"></a>

**Kebijakan pembaruan: Node login di cluster harus dihentikan agar pengaturan ini diubah untuk pembaruan.**  
Anda tidak dapat mengubah pengaturan ini saat node login di cluster sedang digunakan. Entah Anda harus mengembalikan perubahan, atau Anda harus menghentikan node login cluster. (Anda dapat menghentikan node login di cluster dengan mengatur jumlah setiap pool sama dengan 0). Setelah node login cluster dihentikan, Anda dapat memperbarui cluster (pcluster update-cluster) untuk mengaktifkan perubahan.  
Kebijakan pembaruan ini didukung dimulai dengan AWS ParallelCluster versi 3.7.0.

**Kebijakan pembaruan: Kumpulan node login dapat ditambahkan, tetapi menghapus kumpulan mengharuskan semua node login di cluster dihentikan.**  
Untuk menghapus pool, Anda harus menghentikan semua node login di cluster. (Anda dapat menghentikan node login di cluster dengan mengatur Hitungan setiap pool sama dengan 0). Setelah node login cluster dihentikan, Anda dapat memperbarui cluster ([`pcluster update-cluster`](pcluster.update-cluster-v3.md)) untuk mengaktifkan perubahan.  
Kebijakan pembaruan ini didukung dimulai dengan AWS ParallelCluster versi 3.11.0.

**Kebijakan pembaruan: Node login di pool harus dihentikan agar pengaturan ini diubah untuk pembaruan.**  
Anda tidak dapat mengubah pengaturan ini saat node login di pool sedang digunakan. Entah Anda harus mengembalikan perubahan, atau Anda harus menghentikan node login pool. (Anda dapat menghentikan node login di pool dengan mengatur Count pool sama dengan 0). Setelah node login pool dihentikan, Anda dapat memperbarui cluster ([`pcluster update-cluster`](pcluster.update-cluster-v3.md)) untuk mengaktifkan perubahan.  
Kebijakan pembaruan ini didukung dimulai dengan AWS ParallelCluster versi 3.11.0.

**Kebijakan pembaruan: Pengaturan ini dapat diubah selama pembaruan.**  
Setelah mengubah pengaturan ini, cluster dapat diperbarui menggunakan[`pcluster update-cluster`](pcluster.update-cluster-v3.md).

**Kebijakan pembaruan: Jika pengaturan ini diubah, pembaruan tidak diizinkan.**  
Setelah mengubah pengaturan ini, cluster tidak dapat diperbarui. Anda harus mengembalikan pengaturan untuk cluster asli dan membuat cluster baru dengan pengaturan yang diperbarui. Anda dapat menghapus cluster asli di kemudian hari. Untuk membuat cluster baru, gunakan[`pcluster create-cluster`](pcluster.create-cluster-v3.md). Untuk menghapus cluster asli, gunakan[`pcluster delete-cluster`](pcluster.delete-cluster-v3.md).

**Kebijakan pembaruan: Pengaturan ini tidak dianalisis selama pembaruan.**  
Pengaturan ini dapat diubah, dan cluster diperbarui menggunakan[`pcluster update-cluster`](pcluster.update-cluster-v3.md).

**Kebijakan pembaruan: Armada komputasi harus dihentikan agar pengaturan ini diubah untuk pembaruan.**  
Pengaturan ini tidak dapat diubah saat armada komputasi ada. Perubahan harus dikembalikan atau armada komputasi harus dihentikan (menggunakan[`pcluster update-compute-fleet`](pcluster.update-compute-fleet-v3.md)). Setelah armada komputasi dihentikan, Anda dapat memperbarui cluster ([`pcluster update-cluster`](pcluster.update-cluster-v3.md)) untuk mengaktifkan perubahan. Misalnya, jika Anda menggunakan Slurm penjadwal dengan [`SlurmQueues`](Scheduling-v3.md#Scheduling-v3-SlurmQueues)//- [`ComputeResources`[`Name`](Scheduling-v3.md#yaml-Scheduling-SlurmQueues-ComputeResources-Name)](Scheduling-v3.md#Scheduling-v3-SlurmQueues-ComputeResources)/[`MinCount`](Scheduling-v3.md#yaml-Scheduling-SlurmQueues-ComputeResources-MinCount)> 0, armada komputasi dimulai.

**Kebijakan pembaruan: Armada komputasi dan node login harus dihentikan agar pengaturan ini diubah untuk pembaruan.**  
Pengaturan ini tidak dapat diubah saat armada komputasi ada atau jika node login sedang digunakan. Entah perubahan harus dikembalikan atau armada komputasi dan node login harus dihentikan (Armada komputasi dapat dihentikan menggunakan). [`pcluster update-compute-fleet`](pcluster.update-compute-fleet-v3.md) Setelah armada komputasi dan node login dihentikan, Anda dapat memperbarui cluster ([`pcluster update-cluster`](pcluster.update-cluster-v3.md)) untuk mengaktifkan perubahan.

**Kebijakan pembaruan: Pengaturan ini tidak dapat dikurangi selama pembaruan.**  
Pengaturan ini dapat diubah, tetapi tidak dapat dikurangi. Jika pengaturan ini harus dikurangi, Anda harus mengembalikan pengaturan untuk cluster asli dan membuat cluster baru dengan pengaturan yang diperbarui. Anda dapat menghapus cluster asli di kemudian hari. Untuk membuat cluster baru, gunakan[`pcluster create-cluster`](pcluster.create-cluster-v3.md). Untuk menghapus cluster asli, gunakan[`pcluster delete-cluster`](pcluster.delete-cluster-v3.md).

**Kebijakan pembaruan: Jika pengaturan ini diubah, pembaruan tidak diizinkan. Jika Anda memaksa pembaruan, nilai baru akan diabaikan dan nilai lama akan digunakan.**  
Setelah mengubah pengaturan ini, cluster tidak dapat diperbarui. Anda harus mengembalikan pengaturan untuk cluster asli dan membuat cluster baru dengan pengaturan yang diperbarui. Anda dapat menghapus cluster asli di kemudian hari. Untuk membuat cluster baru, gunakan[`pcluster create-cluster`](pcluster.create-cluster-v3.md). Untuk menghapus cluster asli, gunakan[`pcluster delete-cluster`](pcluster.delete-cluster-v3.md).

**Kebijakan pembaruan: Armada komputasi harus dihentikan atau [`QueueUpdateStrategy`](Scheduling-v3.md#yaml-Scheduling-SlurmSettings-QueueUpdateStrategy)harus disetel agar pengaturan ini diubah untuk pembaruan.**  
Pengaturan ini dapat diubah. Entah armada komputasi harus dihentikan (menggunakan[`pcluster update-compute-fleet`](pcluster.update-compute-fleet-v3.md)) atau [`QueueUpdateStrategy`](Scheduling-v3.md#yaml-Scheduling-SlurmSettings-QueueUpdateStrategy)harus diatur. Setelah armada komputasi dihentikan atau [`QueueUpdateStrategy`](Scheduling-v3.md#yaml-Scheduling-SlurmSettings-QueueUpdateStrategy)disetel, Anda dapat memperbarui cluster ([`pcluster update-cluster`](pcluster.update-cluster-v3.md)) untuk mengaktifkan perubahan.  
Kebijakan pembaruan ini didukung dimulai dengan AWS ParallelCluster versi 3.2.0.

**Kebijakan pembaruan: Untuk pengaturan nilai daftar ini, nilai baru dapat ditambahkan selama pembaruan atau armada komputasi harus dihentikan saat menghapus nilai yang ada.**  
Nilai baru untuk pengaturan ini dapat ditambahkan selama pembaruan. Setelah menambahkan nilai baru ke daftar, cluster dapat diperbarui menggunakan ([`pcluster update-cluster`](pcluster.update-cluster-v3.md)).  
Untuk menghapus nilai yang ada dari daftar, armada komputasi harus dihentikan (menggunakan[`pcluster update-compute-fleet`](pcluster.update-compute-fleet-v3.md)).  
Misalnya, jika Anda menggunakan Slurm penjadwal dan menambahkan jenis instans baru ke [Instances/ InstanceType](Scheduling-v3.md#yaml-Scheduling-SlurmQueues-ComputeResources-Instances), Anda dapat memperbarui klaster tanpa menghentikan armada komputasi. [Untuk menghapus jenis instans yang ada dari [Instances/ InstanceType](Scheduling-v3.md#yaml-Scheduling-SlurmQueues-ComputeResources-Instances), armada komputasi harus dihentikan terlebih dahulu (menggunakan pcluster). update-compute-fleet](pcluster.update-compute-fleet-v3.md)  
Kebijakan pembaruan ini didukung dimulai dengan AWS ParallelCluster versi 3.2.0.

**Kebijakan pembaruan: Mengurangi ukuran antrian memerlukan armada komputasi dihentikan atau **[QueueUpdateStrategy](Scheduling-v3.md#yaml-Scheduling-SlurmSettings-QueueUpdateStrategy)**harus disetel ke TERMINATE agar pengaturan ini diubah untuk pembaruan.**  
Pengaturan ini dapat diubah, tetapi jika perubahan akan mengurangi ukuran antrian, armada komputasi harus dihentikan (menggunakan pcluster update-compute-fleet) atau [QueueUpdateStrategy](Scheduling-v3.md#yaml-Scheduling-SlurmSettings-QueueUpdateStrategy)harus diatur ke TERMINATE. Setelah armada komputasi dihentikan atau [QueueUpdateStrategy](Scheduling-v3.md#yaml-Scheduling-SlurmSettings-QueueUpdateStrategy)disetel ke TERMINATE, Anda dapat memperbarui cluster ([pcluster update-cluster](pcluster.update-cluster-v3.md) untuk mengaktifkan perubahan.   
Set TERMINATE saat mengubah ukuran kapasitas cluster, hanya akan mengakhiri node dari bagian belakang daftar node, dan akan meninggalkan semua node lain dari partisi yang sama.  
Misalnya, jika kapasitas awal cluster adalah `MinCount = 5` dan`MaxCount = 10`, node adalah`st-[1-5]; dy-[1-5]`. Saat mengubah ukuran cluster ke `MinCount = 3` dan`MaxCount = 5`, kapasitas cluster baru akan disusun oleh node`st-[1-3]; dy-[1-2]`, yang tidak akan disentuh selama pembaruan. Hanya node `st-[4-5]; dy-[3-5]` yang akan dihentikan selama pembaruan.  
Perubahan berikut didukung dan tidak memerlukan armada komputasi dihentikan atau [QueueUpdateStrategy](Scheduling-v3.md#yaml-Scheduling-SlurmSettings-QueueUpdateStrategy)disetel ke TERMINATE:  
+ Yang baru [SlurmQueue](Scheduling-v3.md#Scheduling-v3-SlurmQueues)ditambahkan
+ Yang baru [ComputeResource](Scheduling-v3.md#Scheduling-v3-SlurmQueues-ComputeResources)ditambahkan
+ [MaxCount](Scheduling-v3.md#yaml-Scheduling-SlurmQueues-ComputeResources-MaxCount)meningkat
+ [MinCount](Scheduling-v3.md#yaml-Scheduling-SlurmQueues-ComputeResources-MinCount)meningkat dan [MaxCount](Scheduling-v3.md#yaml-Scheduling-SlurmQueues-ComputeResources-MaxCount)meningkat setidaknya jumlah yang sama

  **Catatan:** Kebijakan pembaruan ini didukung dimulai dengan AWS ParallelCluster versi 3.9.0.

**Kebijakan pembaruan: Untuk pengaturan nilai daftar ini, armada komputasi harus dihentikan atau [`QueueUpdateStrategy`](Scheduling-v3.md#yaml-Scheduling-SlurmSettings-QueueUpdateStrategy)harus disetel untuk menambahkan nilai baru; armada komputasi harus dihentikan saat menghapus nilai yang ada.**  
Nilai baru untuk pengaturan ini dapat ditambahkan selama pembaruan. Entah armada komputasi harus dihentikan (menggunakan[`pcluster update-compute-fleet`](pcluster.update-compute-fleet-v3.md)) atau [`QueueUpdateStrategy`](Scheduling-v3.md#yaml-Scheduling-SlurmSettings-QueueUpdateStrategy)harus diatur. Setelah armada komputasi dihentikan atau [`QueueUpdateStrategy`](Scheduling-v3.md#yaml-Scheduling-SlurmSettings-QueueUpdateStrategy)disetel, Anda dapat memperbarui cluster ([`pcluster update-cluster`](pcluster.update-cluster-v3.md)) untuk mengaktifkan perubahan.  
Untuk menghapus nilai yang ada dari daftar, armada komputasi harus dihentikan (menggunakan[`pcluster update-compute-fleet`](pcluster.update-compute-fleet-v3.md)).  
Kebijakan pembaruan ini didukung dimulai dengan AWS ParallelCluster versi 3.3.0.

**Kebijakan pembaruan: Semua node komputasi harus dihentikan untuk penghapusan grup penempatan terkelola. Armada komputasi harus dihentikan atau [`QueueUpdateStrategy`](Scheduling-v3.md#yaml-Scheduling-SlurmSettings-QueueUpdateStrategy)harus disetel agar pengaturan ini diubah untuk pembaruan.**  
Armada komputasi harus dihentikan (menggunakan[`pcluster update-compute-fleet`](pcluster.update-compute-fleet-v3.md)) untuk menghapus grup penempatan terkelola. Jika Anda menjalankan pembaruan klaster untuk menghapus grup penempatan terkelola sebelum menghentikan armada komputasi, pesan konfigurasi yang tidak valid akan ditampilkan dan pembaruan tidak dilanjutkan. Menghentikan armada komputasi menjamin tidak ada instance yang berjalan.

## `pcluster update-cluster` contoh
<a name="pcluster-update-cluster-examples"></a>

Pengaturan ini dapat diubah, tetapi jika perubahan akan mengurangi ukuran antrian, armada komputasi harus dihentikan (menggunakan pcluster update-compute-fleet) atau [QueueUpdateStrategy](Scheduling-v3.md#yaml-Scheduling-SlurmSettings-QueueUpdateStrategy)harus diatur ke TERMINATE. Setelah armada komputasi dihentikan atau [QueueUpdateStrategy](Scheduling-v3.md#yaml-Scheduling-SlurmSettings-QueueUpdateStrategy)disetel ke TERMINATE, Anda dapat memperbarui cluster ([pcluster update-cluster](pcluster.update-cluster-v3.md) untuk mengaktifkan perubahan.
+ Contoh ini menunjukkan pembaruan dengan beberapa perubahan yang diizinkan dan pembaruan dimulai secara langsung.

  ```
  $ pcluster update-cluster --cluster-name cluster_name --cluster-config ~/.parallelcluster/test_cluster --region us-east-1
  {
    "cluster": {
      "clusterName": cluster_name,
      "cloudformationStackStatus": "UPDATE_IN_PROGRESS",
      "cloudformationStackArn": stack_arn,
      "region": "us-east-1",
      "version": "3.15.0",
      "clusterStatus": "UPDATE_IN_PROGRESS"
    },
    "changeSet": [
      {
        "parameter": "HeadNode.Networking.AdditionalSecurityGroups",
        "requestedValue": [
          "sg-0cd61884c4ad11234"
        ],
        "currentValue": [
          "sg-0cd61884c4ad16341"
        ]
      }
    ]
  }
  ```
+ Contoh ini menunjukkan pembaruan dryrun dengan beberapa perubahan yang diizinkan. Dryrun berguna untuk melaporkan set perubahan tanpa memulai pembaruan.

  ```
  $ pcluster update-cluster --cluster-name cluster_name --cluster-config ~/.parallelcluster/test_cluster --region us-east-1 --dryrun true
  {
    "message": "Request would have succeeded, but DryRun flag is set.",
    "changeSet": [
      {
        "parameter": "HeadNode.Networking.AdditionalSecurityGroups",
        "requestedValue": [
          "sg-0cd61884c4ad11234"
        ],
        "currentValue": [
          "sg-0cd61884c4ad16341"
        ]
      }
    ]
  }
  ```
+ Contoh ini menunjukkan pembaruan dengan beberapa perubahan yang memblokir pembaruan.

  ```
  $ pcluster update-cluster --cluster-name cluster_name --cluster-config ~/.parallelcluster/test_cluster --region us-east-1
  {
    "message": "Update failure",
    "updateValidationErrors": [
      {
        "parameter": "HeadNode.Ssh.KeyName",
        "requestedValue": "mykey_2",
        "message": "Update actions are not currently supported for the 'KeyName' parameter. Restore 'KeyName' value to 'jenkinsjun'. If you need this change, please consider creating a new cluster instead of updating the existing one.",
        "currentValue": "mykey_1"
      },
      {
        "parameter": "Scheduling.SlurmQueues[queue1].ComputeResources[queue1-t2micro].InstanceType",
        "requestedValue": "c4.xlarge",
        "message": "All compute nodes must be stopped. Stop the compute fleet with the pcluster update-compute-fleet command",
        "currentValue": "t2.micro"
      },
      {
        "parameter": "SharedStorage[ebs1].MountDir",
        "requestedValue": "/my/very/very/long/shared_dir",
        "message": "Update actions are not currently supported for the 'MountDir' parameter. Restore 'MountDir' value to '/shared'. If you need this change, please consider creating a new cluster instead of updating the existing one.",
        "currentValue": "/shared"
      }
    ],
    "changeSet": [
      {
        "parameter": "HeadNode.Networking.AdditionalSecurityGroups",
        "requestedValue": [
          "sg-0cd61884c4ad11234"
        ],
        "currentValue": [
          "sg-0cd61884c4ad16341"
        ]
      },
      {
        "parameter": "HeadNode.Ssh.KeyName",
        "requestedValue": "mykey_2",
        "currentValue": "mykey_1"
      },
      {
        "parameter": "Scheduling.SlurmQueues[queue1].ComputeResources[queue1-t2micro].InstanceType",
        "requestedValue": "c4.xlarge",
        "currentValue": "t2.micro"
      },
      {
        "parameter": "SharedStorage[ebs1].MountDir",
        "requestedValue": "/my/very/very/long/shared_dir",
        "currentValue": "/shared"
      }
    ]
  }
  ```