

Le traduzioni sono generate tramite traduzione automatica. In caso di conflitto tra il contenuto di una traduzione e la versione originale in Inglese, quest'ultima prevarrà.

# Sezione `[cluster]`
<a name="cluster-definition"></a>

Definisce un modello di cluster che può essere utilizzato per creare un cluster. Un file di configurazione può contenere più `[cluster]` sezioni.

Lo stesso modello di cluster può essere utilizzato per creare più cluster.

Il formato è `[cluster cluster-template-name]`. La [`[cluster]`sezione](#cluster-definition) denominata dall'[`cluster_template`](global.md#cluster-template)impostazione nella [`[global]`sezione](global.md) viene utilizzata per impostazione predefinita, ma può essere sovrascritta nella [`pcluster`](pcluster.md) riga di comando.

*cluster-template-name*deve iniziare con una lettera, non contenere più di 30 caratteri e contenere solo lettere, numeri, trattini (-) e caratteri di sottolineatura (\$1).

```
[cluster default]
```

**Topics**
+ [`additional_cfn_template`](#additional-cfn-template)
+ [`additional_iam_policies`](#additional-iam-policies)
+ [`base_os`](#base-os)
+ [`cluster_resource_bucket`](#cluster-resource-bucket-section)
+ [`cluster_type`](#cluster-type)
+ [`compute_instance_type`](#compute-instance-type)
+ [`compute_root_volume_size`](#compute-root-volume-size)
+ [`custom_ami`](#custom-ami-section)
+ [`cw_log_settings`](#cw-log-settings)
+ [`dashboard_settings`](#dashboard-settings)
+ [`dcv_settings`](#dcv-settings)
+ [`desired_vcpus`](#desired-vcpus)
+ [`disable_cluster_dns`](#disable-cluster-dns-settings)
+ [`disable_hyperthreading`](#disable-hyperthreading)
+ [`ebs_settings`](#ebs-settings)
+ [`ec2_iam_role`](#ec2-iam-role)
+ [`efs_settings`](#efs-settings)
+ [`enable_efa`](#enable-efa)
+ [`enable_efa_gdr`](#enable-efa-gdr)
+ [`enable_intel_hpc_platform`](#enable-intel-hpc-platform)
+ [`encrypted_ephemeral`](#encrypted-ephemeral)
+ [`ephemeral_dir`](#ephemeral-dir)
+ [`extra_json`](#extra-json)
+ [`fsx_settings`](#fsx-settings)
+ [`iam_lambda_role`](#iam-lambda-role)
+ [`initial_queue_size`](#configuration-initial-queue-size)
+ [`key_name`](#key-name)
+ [`maintain_initial_size`](#maintain-initial-size)
+ [`master_instance_type`](#master-instance-type)
+ [`master_root_volume_size`](#master-root-volume-size)
+ [`max_queue_size`](#configuration-max-queue-size)
+ [`max_vcpus`](#max-vcpus)
+ [`min_vcpus`](#min-vcpus)
+ [`placement`](#placement)
+ [`placement_group`](#placement-group)
+ [`post_install`](#post-install)
+ [`post_install_args`](#post-install-args)
+ [`pre_install`](#pre-install)
+ [`pre_install_args`](#pre-install-args)
+ [`proxy_server`](#proxy-server)
+ [`queue_settings`](#queue-settings)
+ [`raid_settings`](#raid-settings)
+ [`s3_read_resource`](#s3-read-resource)
+ [`s3_read_write_resource`](#s3-read-write-resource)
+ [`scaling_settings`](#scaling-settings)
+ [`scheduler`](#scheduler)
+ [`shared_dir`](#cluster-shared-dir)
+ [`spot_bid_percentage`](#spot-bid-percentage)
+ [`spot_price`](#spot-price)
+ [`tags`](#tags)
+ [`template_url`](#template-url)
+ [`vpc_settings`](#vpc-settings)

## `additional_cfn_template`
<a name="additional-cfn-template"></a>

**(Facoltativo)** Definisce un AWS CloudFormation modello aggiuntivo da avviare insieme al cluster. Questo modello aggiuntivo viene utilizzato per creare risorse esterne al cluster ma che fanno parte del ciclo di vita del cluster.

Il valore deve essere un URL HTTP verso un modello pubblico, con tutti i parametri forniti.

Non c'è alcun valore predefinito.

```
additional_cfn_template = https://<bucket-name>.s3.amazonaws.com/my-cfn-template.yaml
```

[Politica di aggiornamento: se questa impostazione viene modificata, l'aggiornamento non è consentito.](using-pcluster-update.md#update-policy-fail)

## `additional_iam_policies`
<a name="additional-iam-policies"></a>

**(Facoltativo)** Specifica un elenco di Amazon Resource Names (ARN) delle policy IAM per Amazon EC2. Questo elenco è allegato al ruolo root utilizzato nel cluster oltre alle autorizzazioni richieste, separate da AWS ParallelCluster virgole. Il nome di una policy IAM e il relativo ARN sono diversi. I nomi non possono essere usati come argomento per`additional_iam_policies`.

Se il tuo intento è aggiungere politiche aggiuntive alle impostazioni predefinite per i nodi del cluster, ti consigliamo di aggiungere le politiche IAM personalizzate aggiuntive con l'`additional_iam_policies`impostazione invece di utilizzare [`ec2_iam_role`](#ec2-iam-role)le impostazioni per aggiungere le tue politiche EC2 specifiche. Questo perché `additional_iam_policies` vengono aggiunte alle autorizzazioni predefinite richieste. AWS ParallelCluster Un esistente [`ec2_iam_role`](#ec2-iam-role)deve includere tutte le autorizzazioni richieste. Tuttavia, poiché le autorizzazioni richieste cambiano spesso da una versione all'altra man mano che vengono aggiunte funzionalità, una esistente [`ec2_iam_role`](#ec2-iam-role)può diventare obsoleta.

Non c'è alcun valore predefinito.

```
additional_iam_policies = arn:aws:iam::123456789012:policy/CustomEC2Policy
```

**Nota**  
Il supporto per [`additional_iam_policies`](#additional-iam-policies)è stato aggiunto nella AWS ParallelCluster versione 2.5.0.

[Politica di aggiornamento: questa impostazione può essere modificata durante un aggiornamento.](using-pcluster-update.md#update-policy-setting-supported)

## `base_os`
<a name="base-os"></a>

**(Obbligatorio)** Specifica il tipo di sistema operativo utilizzato nel cluster.

Le opzioni disponibili sono:
+ `alinux2`
+ `centos7`
+ `ubuntu1804`
+ `ubuntu2004`

**Nota**  
Sono supportate solo AWS le istanze basate su Graviton o sono `alinux2` supportate`ubuntu1804`. `ubuntu2004`

**Nota**  
Il supporto per `centos8` è stato rimosso nella AWS ParallelCluster versione 2.11.4. Il supporto per `ubuntu2004` è stato aggiunto e il supporto per `alinux` ed `ubuntu1604` è stato rimosso nella AWS ParallelCluster versione 2.11.0. Il supporto per `centos8` è stato aggiunto e il supporto per `centos6` è stato rimosso nella AWS ParallelCluster versione 2.10.0. Il supporto per `alinux2` è stato aggiunto nella AWS ParallelCluster versione 2.6.0. Il supporto per `ubuntu1804` è stato aggiunto e il supporto per `ubuntu1404` è stato rimosso nella AWS ParallelCluster versione 2.5.0.

Oltre a quelli specifici Regioni AWS menzionati nella tabella seguente che non supportano`centos7`. Tutte le altre regioni AWS commerciali supportano tutti i seguenti sistemi operativi.


| Partizione ()Regioni AWS | `alinux2` | `centos7` | `ubuntu1804` e `ubuntu2004` | 
| --- | --- | --- | --- | 
| Commerciale (tutto ciò Regioni AWS non espressamente menzionato) | True | True | True | 
| AWS GovCloud (Stati Uniti orientali) (us-gov-east-1) | True | False | True | 
| AWS GovCloud (Stati Uniti occidentali) () us-gov-west-1 | True | False | True | 
| Cina (Pechino) (cn-north-1) | True | False | True | 
| Cina (Ningxia) (cn-northwest-1) | True | False | True | 

**Nota**  
Il [`base_os`](#base-os) parametro determina anche il nome utente utilizzato per accedere al cluster.
+ `centos7`: `centos` 
+ `ubuntu1804` e `ubuntu2004`: `ubuntu` 
+ `alinux2`: `ec2-user` 

**Nota**  
Prima della AWS ParallelCluster versione 2.7.0, il [`base_os`](#base-os) parametro era facoltativo e l'impostazione predefinita era. `alinux` A partire dalla AWS ParallelCluster versione 2.7.0, il [`base_os`](#base-os) parametro è obbligatorio.

**Nota**  
Se il [`scheduler`](#scheduler) parametro è `awsbatch`, è supportato solo `alinux2`.

```
base_os = alinux2
```

[Politica di aggiornamento: se questa impostazione viene modificata, l'aggiornamento non è consentito.](using-pcluster-update.md#update-policy-fail)

## `cluster_resource_bucket`
<a name="cluster-resource-bucket-section"></a>

**(Facoltativo)** Speciifica il nome del bucket Amazon S3 utilizzato per ospitare le risorse generate al momento della creazione del cluster. Il bucket deve avere il controllo delle versioni abilitato. Per ulteriori informazioni, consulta [Using versioning](https://docs.aws.amazon.com/AmazonS3/latest/dev/Versioning.html) nella *Amazon Simple Storage Service User Guide*. Questo bucket può essere utilizzato per più cluster. Il bucket deve trovarsi nella stessa regione del cluster.

Se questo parametro non è specificato, viene creato un nuovo bucket quando viene creato il cluster. Il nuovo bucket ha il nome di. `parallelcluster-random_string` In questo nome, *random\$1string* c'è una stringa casuale di caratteri alfanumerici. Tutte le risorse del cluster sono archiviate in questo bucket in un percorso con il modulo. `bucket_name/resource_directory` `resource_directory`ha la forma`stack_name-random_string`, dove *stack\$1name* è il nome di uno degli CloudFormation stack usati da. AWS ParallelCluster Il valore di *bucket\$1name* può essere trovato nel `ResourcesS3Bucket` valore nell'output dello `parallelcluster-clustername` stack. Il valore di *resource\$1directory* può essere trovato nel valore dell'`ArtifactS3RootDirectory`output dello stesso stack.

Il valore predefinito è `parallelcluster-random_string`.

```
cluster_resource_bucket = amzn-s3-demo-bucket
```

**Nota**  
Il supporto per [`cluster_resource_bucket`](#cluster-resource-bucket-section) è stato aggiunto nella AWS ParallelCluster versione 2.10.0.

[Politica di aggiornamento: se questa impostazione viene modificata, l'aggiornamento non è consentito. L'aggiornamento di questa impostazione non può essere forzato.](using-pcluster-update.md#update-policy-read-only-resource-bucket)

## `cluster_type`
<a name="cluster-type"></a>

**(Facoltativo)** Definisce il tipo di cluster da avviare. Se l'[`queue_settings`](#queue-settings)impostazione è definita, questa impostazione deve essere sostituita dalle [`compute_type`](queue-section.md#queue-compute-type) impostazioni nelle [`[queue]`sezioni](queue-section.md).

Opzioni valide sono: `ondemand` e `spot`.

Il valore predefinito è `ondemand`.

Per ulteriori informazioni sulle istanze Spot, consulta [Utilizzo di Istanze spot](spot.md).

**Nota**  
L'utilizzo delle istanze Spot richiede che il ruolo `AWSServiceRoleForEC2Spot` collegato al servizio esista nell'account. Per creare questo ruolo nel tuo account utilizzando AWS CLI, esegui il seguente comando:  

```
aws iam create-service-linked-role --aws-service-name spot.amazonaws.com
```
Per ulteriori informazioni, consulta il [ruolo collegato ai servizi per le richieste di istanze Spot nella Guida](https://docs.aws.amazon.com/AWSEC2/latest/UserGuide/spot-requests.html#service-linked-roles-spot-instance-requests) per l'utente di *Amazon EC2*.

```
cluster_type = ondemand
```

[Politica di aggiornamento: la flotta di elaborazione deve essere interrotta affinché questa impostazione possa essere modificata per un aggiornamento.](using-pcluster-update.md#update-policy-compute-fleet)

## `compute_instance_type`
<a name="compute-instance-type"></a>

**(Facoltativo)** Definisce il tipo di istanza Amazon EC2 utilizzato per i nodi di calcolo del cluster. L'architettura del tipo di istanza deve essere la stessa dell'architettura utilizzata per l'[`master_instance_type`](#master-instance-type)impostazione. Se l'[`queue_settings`](#queue-settings)impostazione è definita, questa impostazione deve essere sostituita dalle [`instance_type`](compute-resource-section.md#compute-resource-instance-type) impostazioni nelle [`[compute_resource]`sezioni](compute-resource-section.md).

Se utilizzi lo `awsbatch` scheduler, consulta la creazione di Compute Environments nell' AWS Batch interfaccia utente per un elenco dei tipi di istanze supportati.

L’impostazione predefinita è `t2.micro`, `optimal` quando il pianificatore è `awsbatch`.

```
compute_instance_type = t2.micro
```

**Nota**  
Il supporto per le istanze AWS basate su Graviton (incluse le istanze `A1` e) è stato `C6g` aggiunto nella versione 2.8.0. AWS ParallelCluster 

[Politica di aggiornamento: la flotta di elaborazione deve essere interrotta affinché questa impostazione possa essere modificata per un aggiornamento.](using-pcluster-update.md#update-policy-compute-fleet)

## `compute_root_volume_size`
<a name="compute-root-volume-size"></a>

**(Facoltativo)** Specificate la dimensione del volume ComputeFleet root in gibibyte (GiB). L'AMI deve supportare `growroot`.

Il valore predefinito è `35`.

**Nota**  
Per AWS ParallelCluster le versioni comprese tra 2.5.0 e 2.10.4, il valore predefinito era 25. Prima della AWS ParallelCluster versione 2.5.0, l'impostazione predefinita era 20.

```
compute_root_volume_size = 35
```

[Politica di aggiornamento: la flotta di elaborazione deve essere interrotta affinché questa impostazione possa essere modificata per un aggiornamento.](using-pcluster-update.md#update-policy-compute-fleet)

## `custom_ami`
<a name="custom-ami-section"></a>

**(Facoltativo)** [Specifica l'ID di un'AMI personalizzata da utilizzare per i nodi principale e di calcolo anziché quella predefinita pubblicata. AMIs](https://github.com/aws/aws-parallelcluster/blob/v2.11.9/amis.txt) Per ulteriori informazioni, consulta [Modificare un'AMI](tutorials_02_ami_customization.md#modify-an-aws-parallelcluster-ami) o [Crea un' AWS ParallelCluster AMI personalizzata](tutorials_02_ami_customization.md#build-a-custom-aws-parallelcluster-ami).

Non c'è alcun valore predefinito.

```
custom_ami = ami-00d4efc81188687a0
```

Se l'AMI personalizzata richiede autorizzazioni aggiuntive per il suo avvio, tali autorizzazioni devono essere aggiunte sia alle politiche utente che a quelle del nodo principale.

Ad esempio, se a un'AMI personalizzata è associata un'istantanea crittografata, sono necessarie le seguenti politiche aggiuntive sia nelle politiche utente che in quelle del nodo principale:

------
#### [ JSON ]

****  

```
{
    "Version":"2012-10-17",		 	 	 
    "Statement": [
        {
            "Effect": "Allow",
            "Action": [
                "kms:DescribeKey",
                "kms:ReEncrypt*",
                "kms:CreateGrant",
                "kms:Decrypt"
            ],
            "Resource": [
                "arn:aws:kms:us-east-1:111122223333:key/<AWS_KMS_KEY_ID>"
            ]
        }
    ]
}
```

------

[Politica di aggiornamento: se questa impostazione viene modificata, l'aggiornamento non è consentito.](using-pcluster-update.md#update-policy-fail)

## `cw_log_settings`
<a name="cw-log-settings"></a>

**(Facoltativo)** Identifica la `[cw_log]` sezione con la configurazione CloudWatch Logs. Il nome della sezione deve iniziare con una lettera, contenere non più di 30 caratteri e contenere solo lettere, numeri, trattini (-) e caratteri di sottolineatura (\$1).

Per ulteriori informazioni, consulta la [`[cw_log]`sezione](cw-log-section.md), e[CloudWatch Pannello di controllo Amazon](cloudwatch-dashboard.md). [Integrazione con Amazon CloudWatch Logs](cloudwatch-logs.md)

Ad esempio, l'impostazione seguente specifica che la sezione che inizia `[cw_log custom-cw]` viene utilizzata per la configurazione dei CloudWatch registri.

```
cw_log_settings = custom-cw
```

**Nota**  
Il supporto per [`cw_log_settings`](#cw-log-settings) è stato aggiunto nella AWS ParallelCluster versione 2.6.0.

[Politica di aggiornamento: se questa impostazione viene modificata, l'aggiornamento non è consentito.](using-pcluster-update.md#update-policy-fail)

## `dashboard_settings`
<a name="dashboard-settings"></a>

**(Facoltativo)** Identifica la `[dashboard]` sezione con la configurazione del CloudWatch dashboard. Il nome della sezione deve iniziare con una lettera, contenere non più di 30 caratteri e contenere solo lettere, numeri, trattini (-) e caratteri di sottolineatura (\$1).

[Per ulteriori informazioni, consulta la sezione. `[dashboard]`](dashboard-section.md)

Ad esempio, l'impostazione seguente specifica che la sezione che inizia `[dashboard custom-dashboard` viene utilizzata per la configurazione del CloudWatch dashboard.

```
dashboard_settings = custom-dashboard
```

**Nota**  
Il supporto per [`dashboard_settings`](#dashboard-settings) è stato aggiunto nella AWS ParallelCluster versione 2.10.0.

[Politica di aggiornamento: questa impostazione può essere modificata durante un aggiornamento.](using-pcluster-update.md#update-policy-setting-supported)

## `dcv_settings`
<a name="dcv-settings"></a>

**(Facoltativo)** Identifica la `[dcv]` sezione con la configurazione Amazon DCV. Il nome della sezione deve iniziare con una lettera, non contenere più di 30 caratteri e contenere solo lettere, numeri, trattini (-) e caratteri di sottolineatura (\$1).

[Per ulteriori informazioni, consulta la sezione. `[dcv]`](dcv-section.md)

Ad esempio, l'impostazione seguente specifica che la sezione che inizia `[dcv custom-dcv]` viene utilizzata per la configurazione di Amazon DCV.

```
dcv_settings = custom-dcv
```

**Nota**  
Sulle istanze AWS basate su Graviton, Amazon DCV è supportato solo su. `alinux2`

**Nota**  
Il supporto per [`dcv_settings`](#dcv-settings) è stato aggiunto nella AWS ParallelCluster versione 2.5.0.

[Politica di aggiornamento: se questa impostazione viene modificata, l'aggiornamento non è consentito.](using-pcluster-update.md#update-policy-fail)

## `desired_vcpus`
<a name="desired-vcpus"></a>

**(Facoltativo)** Specificate il numero desiderato di v CPUs nell'ambiente di calcolo. Utilizzato solo se il pianificatore è `awsbatch`.

Il valore predefinito è `4`.

```
desired_vcpus = 4
```

[Politica di aggiornamento: questa impostazione non viene analizzata durante un aggiornamento.](using-pcluster-update.md#update-policy-setting-ignored)

## `disable_cluster_dns`
<a name="disable-cluster-dns-settings"></a>

**(Facoltativo)** Speciifica se le voci DNS per il cluster non devono essere create. Per impostazione predefinita, AWS ParallelCluster crea una zona ospitata sulla Route 53. Se `disable_cluster_dns` è impostato su`true`, la zona ospitata non viene creata.

Il valore predefinito è `false`.

```
disable_cluster_dns = true
```

**avvertimento**  
È necessario un sistema di risoluzione dei nomi per il corretto funzionamento del cluster. Se `disable_cluster_dns` è impostato su`true`, deve essere fornito anche un sistema di risoluzione dei nomi aggiuntivo.

**Importante**  
[`disable_cluster_dns`](#disable-cluster-dns-settings)= `true` è supportato solo se viene specificata l'[`queue_settings`](#queue-settings)impostazione.

**Nota**  
Il supporto per [`disable_cluster_dns`](#disable-cluster-dns-settings) è stato aggiunto nella AWS ParallelCluster versione 2.9.1.

[Politica di aggiornamento: se questa impostazione viene modificata, l'aggiornamento non è consentito.](using-pcluster-update.md#update-policy-fail)

## `disable_hyperthreading`
<a name="disable-hyperthreading"></a>

**(Facoltativo)** Disattiva l'hyperthreading sui nodi head e di calcolo. Non tutti i tipi di istanza possono disabilitare l'hyper-threading. *Per un elenco dei tipi di istanza che supportano la disabilitazione dell'hyperthreading, consulta Core [e thread della CPU per ogni core di CPU per ogni tipo di istanza nella Guida per l'utente](https://docs.aws.amazon.com/AWSEC2/latest/UserGuide/instance-optimize-cpu.html#cpu-options-supported-instances-values) di Amazon EC2.* [Se l'[`queue_settings`](#queue-settings)impostazione è definita, è possibile definire questa impostazione o le [`disable_hyperthreading`](queue-section.md#queue-disable-hyperthreading) impostazioni nelle sezioni. `[queue]`](queue-section.md)

Il valore predefinito è `false`.

```
disable_hyperthreading = true
```

**Nota**  
[`disable_hyperthreading`](#disable-hyperthreading)influisce sul nodo principale solo quando`scheduler = awsbatch`.

**Nota**  
Il supporto per [`disable_hyperthreading`](#disable-hyperthreading) è stato aggiunto nella AWS ParallelCluster versione 2.5.0.

[Politica di aggiornamento: se questa impostazione viene modificata, l'aggiornamento non è consentito.](using-pcluster-update.md#update-policy-fail)

## `ebs_settings`
<a name="ebs-settings"></a>

**(Facoltativo)** Identifica le `[ebs]` sezioni con i volumi Amazon EBS montati sul nodo principale. Quando usi più volumi Amazon EBS, inserisci questi parametri in un elenco separato da una virgola. Il nome della sezione deve iniziare con una lettera, contenere non più di 30 caratteri e contenere solo lettere, numeri, trattini (-) e caratteri di sottolineatura (\$1).

Sono supportati fino a cinque (5) volumi Amazon EBS aggiuntivi.

Per ulteriori informazioni, consulta la [`[ebs]`sezione](ebs-section.md).

Ad esempio, l'impostazione seguente specifica le sezioni che iniziano `[ebs custom1]` e `[ebs custom2]` vengono utilizzate per i volumi Amazon EBS.

```
ebs_settings = custom1, custom2
```

[Politica di aggiornamento: se questa impostazione viene modificata, l'aggiornamento non è consentito.](using-pcluster-update.md#update-policy-fail)

## `ec2_iam_role`
<a name="ec2-iam-role"></a>

**(Facoltativo)** Definisce il nome di un ruolo IAM esistente per Amazon EC2 collegato a tutte le istanze del cluster. Il nome di un ruolo IAM e il relativo Amazon Resource Name (ARN) sono diversi. ARNs non può essere usato come argomento per`ec2_iam_role`.

Se questa opzione è specificata, l'impostazione [`additional_iam_policies`](#additional-iam-policies) viene ignorata. Se il tuo intento è aggiungere politiche aggiuntive alle impostazioni predefinite per i nodi del cluster, ti consigliamo di passare le politiche IAM personalizzate aggiuntive con l'[`additional_iam_policies`](#additional-iam-policies)impostazione anziché utilizzare le `ec2_iam_role` impostazioni.

Se questa opzione non è specificata, viene utilizzato il ruolo AWS ParallelCluster IAM predefinito per Amazon EC2. Per ulteriori informazioni, consulta [AWS Identity and Access Management ruoli in AWS ParallelCluster](iam.md).

Non c'è alcun valore predefinito.

```
ec2_iam_role = ParallelClusterInstanceRole
```

[Politica di aggiornamento: se questa impostazione viene modificata, l'aggiornamento non è consentito.](using-pcluster-update.md#update-policy-fail)

## `efs_settings`
<a name="efs-settings"></a>

**(Facoltativo)** Specifica le impostazioni relative al file system Amazon EFS. Il nome della sezione deve iniziare con una lettera, contenere non più di 30 caratteri e contenere solo lettere, numeri, trattini (-) e caratteri di sottolineatura (\$1).

[Per ulteriori informazioni, consulta la sezione. `[efs]`](efs-section.md)

Ad esempio, l'impostazione seguente specifica che la sezione che inizia `[efs customfs]` viene utilizzata per la configurazione del file system Amazon EFS.

```
efs_settings = customfs
```

[Politica di aggiornamento: se questa impostazione viene modificata, l'aggiornamento non è consentito.](using-pcluster-update.md#update-policy-fail)

## `enable_efa`
<a name="enable-efa"></a>

**(Facoltativo)** Se presente, specifica che Elastic Fabric Adapter (EFA) è abilitato per i nodi di calcolo. Per visualizzare l'elenco delle istanze EC2 che supportano EFA, consulta [Tipi di istanze supportati](https://docs.aws.amazon.com/AWSEC2/latest/UserGuide/efa.html#efa-instance-types) nella Guida per l'*utente di Amazon EC2* per le istanze Linux. Per ulteriori informazioni, consulta [Elastic Fabric Adapter](efa.md). [Se l'[`queue_settings`](#queue-settings)impostazione è definita, è possibile definire questa impostazione oppure è possibile definire le [`enable_efa`](queue-section.md#queue-enable-efa) impostazioni nella `[queue]` sezione.](queue-section.md) Un gruppo di collocazione cluster deve essere utilizzato per ridurre al minimo le latenze tra le istanze. Per ulteriori informazioni, consultare [`placement`](#placement) e [`placement_group`](#placement-group).

```
enable_efa = compute
```

**Nota**  
Il supporto per EFA sulle istanze Graviton2 basate su ARM è stato aggiunto nella versione 2.10.1. AWS ParallelCluster 

[Politica di aggiornamento: se questa impostazione viene modificata, l'aggiornamento non è consentito.](using-pcluster-update.md#update-policy-fail)

## `enable_efa_gdr`
<a name="enable-efa-gdr"></a>

**(Facoltativo)** A partire dalla AWS ParallelCluster versione 2.11.3, questa impostazione non ha alcun effetto. Il supporto Elastic Fabric Adapter (EFA) per GPUDirect RDMA (accesso diretto remoto alla memoria) è sempre abilitato se è supportato sia dal tipo di istanza che dal sistema operativo.

**Nota**  
AWS ParallelCluster versione da 2.10.0 a 2.11.2: If`compute`, specifica che il supporto Elastic Fabric Adapter (EFA) GPUDirect per RDMA (accesso diretto remoto alla memoria) è abilitato per i nodi di calcolo. L'impostazione di questa impostazione su richiede che l'impostazione sia impostata su`compute`. [`enable_efa`](#enable-efa) `compute` Il supporto EFA per GPUDirect RDMA è supportato da tipi di istanze specifici (`p4d.24xlarge`) su sistemi operativi specifici ([`base_os`](#base-os)is`alinux2`, `centos7``ubuntu1804`, o`ubuntu2004`). Se l'[`queue_settings`](#queue-settings)impostazione è definita, è possibile definire questa impostazione oppure le [`enable_efa_gdr`](queue-section.md#queue-enable-efa-gdr) impostazioni nelle [`[queue]`sezioni](queue-section.md). Un gruppo di collocazione cluster deve essere utilizzato per ridurre al minimo le latenze tra le istanze. Per ulteriori informazioni, consultare [`placement`](#placement) e [`placement_group`](#placement-group).

```
enable_efa_gdr = compute
```

**Nota**  
Il supporto per `enable_efa_gdr` è stato aggiunto nella AWS ParallelCluster versione 2.10.0.

[Politica di aggiornamento: la flotta di elaborazione deve essere interrotta affinché questa impostazione possa essere modificata per un aggiornamento.](using-pcluster-update.md#update-policy-compute-fleet)

## `enable_intel_hpc_platform`
<a name="enable-intel-hpc-platform"></a>

**(Facoltativo)** Se presente, indica che il [contratto di licenza con l'utente finale](https://software.intel.com/en-us/articles/end-user-license-agreement) per Intel Parallel Studio è accettato. Ciò fa sì che Intel Parallel Studio venga installato sul nodo principale e condiviso con i nodi di elaborazione. Ciò aggiunge diversi minuti al tempo impiegato dal nodo principale per avviarsi. L'impostazione [`enable_intel_hpc_platform`](#enable-intel-hpc-platform) è supportata solo su CentOS 7 ([`base_os`](#base-os)` = centos7`).

Il valore predefinito è `false`.

```
enable_intel_hpc_platform = true
```

**Nota**  
Il [`enable_intel_hpc_platform`](#enable-intel-hpc-platform) parametro non è compatibile con le istanze basate su AWS Graviton.

**Nota**  
Il supporto per [`enable_intel_hpc_platform`](#enable-intel-hpc-platform) è stato aggiunto nella AWS ParallelCluster versione 2.5.0.

[Politica di aggiornamento: se questa impostazione viene modificata, l'aggiornamento non è consentito.](using-pcluster-update.md#update-policy-fail)

## `encrypted_ephemeral`
<a name="encrypted-ephemeral"></a>

**(Facoltativo)** Crittografa i volumi temporanei dell'Instance Store con chiavi in memoria non recuperabili, utilizzando LUKS (Linux Unified Key Setup).

Per ulteriori informazioni, consulta [https://gitlab.com/cryptsetup/cryptsetup/blob/master/README.md](https://gitlab.com/cryptsetup/cryptsetup/blob/master/README.md).

Il valore predefinito è `false`.

```
encrypted_ephemeral = true
```

[Politica di aggiornamento: se questa impostazione viene modificata, l'aggiornamento non è consentito.](using-pcluster-update.md#update-policy-fail)

## `ephemeral_dir`
<a name="ephemeral-dir"></a>

**(Facoltativo)** Definisce il percorso in cui vengono montati i volumi dell'Instance Store, se utilizzati.

Il valore predefinito è `/scratch`.

```
ephemeral_dir = /scratch
```

[Politica di aggiornamento: se questa impostazione viene modificata, l'aggiornamento non è consentito.](using-pcluster-update.md#update-policy-fail)

## `extra_json`
<a name="extra-json"></a>

**(Facoltativo)** Definisce il codice JSON aggiuntivo che viene unito in. Chef `dna.json` Per ulteriori informazioni, consulta [Creazione di un' AWS ParallelCluster AMI personalizzata](tutorials_02_ami_customization.md).

Il valore predefinito è `{}`.

```
extra_json = {}
```

**Nota**  
A partire dalla AWS ParallelCluster versione 2.6.1, la maggior parte delle ricette di installazione vengono ignorate per impostazione predefinita all'avvio dei nodi per migliorare i tempi di avvio. Per eseguire tutte le ricette di installazione per una migliore compatibilità con le versioni precedenti a scapito dei tempi di avvio, aggiungile `"skip_install_recipes" : "no"` alla chiave nell'`cluster`impostazione. [`extra_json`](#extra-json) Esempio:  

```
extra_json = { "cluster" : { "skip_install_recipes" : "no" } }
```

[Politica di aggiornamento: la flotta di elaborazione deve essere interrotta affinché questa impostazione possa essere modificata per un aggiornamento.](using-pcluster-update.md#update-policy-compute-fleet)

## `fsx_settings`
<a name="fsx-settings"></a>

**(Facoltativo)** Specificate la sezione che definisce la configurazione di FSx for Lustre. Il nome della sezione deve iniziare con una lettera, contenere non più di 30 caratteri e contenere solo lettere, numeri, trattini (-) e caratteri di sottolineatura (\$1).

[Per ulteriori informazioni, consulta la sezione. `[fsx]`](fsx-section.md)

Ad esempio, l'impostazione seguente specifica che la sezione che inizia `[fsx fs]` viene utilizzata per la configurazione di FSx for Lustre.

```
fsx_settings = fs
```

[Politica di aggiornamento: se questa impostazione viene modificata, l'aggiornamento non è consentito.](using-pcluster-update.md#update-policy-fail)

## `iam_lambda_role`
<a name="iam-lambda-role"></a>

**(Facoltativo)** Definisce il nome di un ruolo di AWS Lambda esecuzione esistente. Questo ruolo è associato a tutte le funzioni Lambda del cluster. Per ulteriori informazioni, consulta [Ruolo di esecuzione di AWS Lambda](https://docs.aws.amazon.com/lambda/latest/dg/lambda-intro-execution-role.html) nella *Guida per gli sviluppatori di AWS Lambda *.

**Nota**  
A partire dalla versione 2.11.5, AWS ParallelCluster non supporta l'uso dei SGE nostri scheduler. Torque

Il nome di un ruolo IAM e il relativo Amazon Resource Name (ARN) sono diversi. ARNs non può essere usato come argomento per`iam_lambda_role`. Se entrambi [`ec2_iam_role`](#ec2-iam-role) `iam_lambda_role` sono definiti e l'[`scheduler`](#scheduler)è `sge``slurm`, o`torque`, non verrà creato alcun ruolo. Se lo [`scheduler`](#scheduler) è`awsbatch`, allora verranno creati ruoli durante[`pcluster start`](pcluster.start.md). Ad esempio, le politiche, vedi [`ParallelClusterLambdaPolicy`utilizzando, o SGE Slurm Torque](iam.md#parallelcluster-lambda-policy) e[`ParallelClusterLambdaPolicy` tramite `awsbatch`](iam.md#parallelcluster-lambda-policy-batch).

Non c'è alcun valore predefinito.

```
iam_lambda_role = ParallelClusterLambdaRole
```

**Nota**  
Il supporto per `iam_lambda_role` è stato aggiunto nella AWS ParallelCluster versione 2.10.1.

[Politica di aggiornamento: questa impostazione può essere modificata durante un aggiornamento.](using-pcluster-update.md#update-policy-setting-supported)

## `initial_queue_size`
<a name="configuration-initial-queue-size"></a>

**(Facoltativo)** Imposta il numero iniziale di istanze Amazon EC2 da avviare come nodi di calcolo nel cluster. [Se l'[`queue_settings`](#queue-settings)impostazione è definita, questa impostazione deve essere rimossa e sostituita dalle [`initial_count`](compute-resource-section.md#compute-resource-initial-count) impostazioni nelle sezioni. `[compute_resource]`](compute-resource-section.md)

**Nota**  
A partire dalla versione 2.11.5, AWS ParallelCluster non supporta l'uso dei nostri schedulerSGE. Torque

Questa impostazione è applicabile solo per i pianificatori tradizionali (SGE, Slurm e Torque). Se l'[`maintain_initial_size`](#maintain-initial-size)impostazione è`true`, deve essere almeno una (1). [`initial_queue_size`](#configuration-initial-queue-size)

Se il pianificatore è `awsbatch`, utilizza piuttosto [`min_vcpus`](#min-vcpus).

L’impostazione predefinita è `2`.

```
initial_queue_size = 2
```

[Politica di aggiornamento: questa impostazione può essere modificata durante un aggiornamento.](using-pcluster-update.md#update-policy-setting-supported)

## `key_name`
<a name="key-name"></a>

**(Facoltativo)** Assegna un nome a una coppia di key pair Amazon EC2 esistente con cui abilitare l'accesso SSH alle istanze.

```
key_name = mykey
```

**Nota**  
Prima della AWS ParallelCluster versione 2.11.0, `key_name` era un'impostazione obbligatoria.

[Politica di aggiornamento: se questa impostazione viene modificata, l'aggiornamento non è consentito.](using-pcluster-update.md#update-policy-fail)

## `maintain_initial_size`
<a name="maintain-initial-size"></a>

**Nota**  
A partire dalla versione 2.11.5, AWS ParallelCluster non supporta l'uso dei nostri scheduler. SGE Torque

**(Facoltativo)** Mantiene la dimensione iniziale del gruppo Auto Scaling per gli scheduler tradizionali (SGESlurm, e). Torque

Se il pianificatore è `awsbatch`, utilizza piuttosto [`desired_vcpus`](#desired-vcpus).

Questa impostazione è un flag booleano. Se impostato su`true`, il gruppo Auto Scaling non ha mai un numero di membri inferiore al valore di [`initial_queue_size`](#configuration-initial-queue-size) e il valore di [`initial_queue_size`](#configuration-initial-queue-size) deve essere uno (1) o superiore. I cluster possono comunque essere aumentati fino al valore di [`max_queue_size`](#configuration-max-queue-size). In `cluster_type = spot` tal caso, nel gruppo Auto Scaling le istanze possono essere interrotte e le dimensioni possono diminuire. [`initial_queue_size`](#configuration-initial-queue-size)

Se impostato su`false`, il gruppo Auto Scaling può ridurlo a zero (0) membri per evitare che le risorse rimangano inattive quando non sono necessarie.

[Se l'[`queue_settings`](#queue-settings)impostazione è definita, questa impostazione deve essere rimossa e sostituita dalle [`min_count`](compute-resource-section.md#compute-resource-min-count) impostazioni [`initial_count`](compute-resource-section.md#compute-resource-initial-count) e nelle `[compute_resource]` sezioni.](compute-resource-section.md)

L’impostazione predefinita è `false`.

```
maintain_initial_size = false
```

[Politica di aggiornamento: questa impostazione può essere modificata durante un aggiornamento.](using-pcluster-update.md#update-policy-setting-supported)

## `master_instance_type`
<a name="master-instance-type"></a>

**(Facoltativo)** Definisce il tipo di istanza Amazon EC2 utilizzato per il nodo principale. L'architettura del tipo di istanza deve essere la stessa dell'architettura utilizzata per l'[`compute_instance_type`](#compute-instance-type)impostazione.

In Regioni AWS quelle con un piano gratuito, il valore predefinito è il tipo di istanza Free Tier (`t2.micro`o`t3.micro`). In quelle Regioni AWS che non dispongono di un piano gratuito, l'impostazione predefinita è. `t3.micro` Per ulteriori informazioni sul piano AWS gratuito, consulta il piano [AWS gratuito](https://aws.amazon.com/free/free-tier-faqs/). FAQs

```
master_instance_type = t2.micro
```

**Nota**  
Prima della AWS ParallelCluster versione 2.10.1, l'impostazione predefinita era in all. `t2.micro` Regioni AWS Nella AWS ParallelCluster versione 2.10.0, `p4d.24xlarge` non era supportato per il nodo principale. Il supporto per le istanze AWS basate su Graviton (come `A1` e`C6g`) è stato aggiunto nella versione 2.8.0. AWS ParallelCluster 

[Politica di aggiornamento: se questa impostazione viene modificata, l'aggiornamento non è consentito.](using-pcluster-update.md#update-policy-fail)

## `master_root_volume_size`
<a name="master-root-volume-size"></a>

**(Facoltativo)** Specificate la dimensione del volume radice del nodo principale in gibibyte (GiB). L'AMI deve supportare `growroot`.

Il valore predefinito è `35`.

**Nota**  
Per AWS ParallelCluster le versioni comprese tra 2.5.0 e 2.10.4, il valore predefinito era 25. Prima della AWS ParallelCluster versione 2.5.0, l'impostazione predefinita era 20.

```
master_root_volume_size = 35
```

[Politica di aggiornamento: se questa impostazione viene modificata, l'aggiornamento non è consentito.](using-pcluster-update.md#update-policy-fail)

## `max_queue_size`
<a name="configuration-max-queue-size"></a>

**(Facoltativo)** Imposta il numero massimo di istanze Amazon EC2 che possono essere avviate nel cluster. [Se l'[`queue_settings`](#queue-settings)impostazione è definita, questa impostazione deve essere rimossa e sostituita dalle [`max_count`](compute-resource-section.md#compute-resource-max-count) impostazioni nelle `[compute_resource]` sezioni.](compute-resource-section.md)

**Nota**  
A partire dalla versione 2.11.5, AWS ParallelCluster non supporta l'uso dei nostri schedulerSGE. Torque

Questa impostazione è applicabile solo per i pianificatori tradizionali (SGE, Slurm e Torque).

Se il pianificatore è `awsbatch`, utilizza piuttosto [`max_vcpus`](#max-vcpus).

L’impostazione predefinita è `10`.

```
max_queue_size = 10
```

Politica di aggiornamento: questa impostazione può essere modificata durante un aggiornamento, ma la flotta di elaborazione dovrebbe essere interrotta se il valore viene ridotto. In caso contrario, i nodi esistenti potrebbero essere terminati.

## `max_vcpus`
<a name="max-vcpus"></a>

**(Facoltativo)** Specifica il numero massimo di v CPUs nell'ambiente di calcolo. Utilizzato solo se il pianificatore è `awsbatch`.

Il valore predefinito è `20`.

```
max_vcpus = 20
```

[Politica di aggiornamento: questa impostazione non può essere ridotta durante un aggiornamento.](using-pcluster-update.md#update-policy-no-decrease)

## `min_vcpus`
<a name="min-vcpus"></a>

**(Facoltativo)** Mantiene la dimensione iniziale del gruppo Auto Scaling per lo `awsbatch` scheduler.

**Nota**  
A partire dalla versione 2.11.5, AWS ParallelCluster non supporta l'uso dei nostri scheduler. SGE Torque

Se il pianificatore è SGE, Slurm o Torque utilizza piuttosto [`maintain_initial_size`](#maintain-initial-size).

L'ambiente di calcolo non dispone mai di un numero inferiore di membri rispetto al valore di [`min_vcpus`](#min-vcpus).

L’impostazione predefinita è `0`.

```
min_vcpus = 0
```

[Politica di aggiornamento: questa impostazione può essere modificata durante un aggiornamento.](using-pcluster-update.md#update-policy-setting-supported)

## `placement`
<a name="placement"></a>

**(Facoltativo)** Definisce la logica del gruppo di posizionamento del cluster, abilitando l'uso del gruppo di posizionamento del cluster all'intero cluster o solo alle istanze di calcolo.

[Se l'[`queue_settings`](#queue-settings)impostazione è definita, questa impostazione deve essere rimossa e sostituita con [`placement_group`](queue-section.md#queue-placement-group) impostazioni per ciascuna sezione`[queue]`.](queue-section.md) Se lo stesso gruppo di collocamento viene utilizzato per diversi tipi di istanze, è più probabile che la richiesta non riesca a causa di un errore di capacità insufficiente. Per ulteriori informazioni, consulta la sezione [Capacità insufficiente delle istanze](https://docs.aws.amazon.com/AWSEC2/latest/UserGuide/troubleshooting-launch.html#troubleshooting-launch-capacity) nella Guida per l'*utente di Amazon EC2*. Più code possono condividere un gruppo di posizionamento solo se questo è stato creato in anticipo e configurato nelle [`placement_group`](queue-section.md#queue-placement-group) impostazioni di ciascuna coda. Se ogni [`[queue]`sezione](queue-section.md) definisce un'[`placement_group`](queue-section.md#queue-placement-group)impostazione, il nodo principale non può appartenere al gruppo di posizionamento di una coda.

È possibile utilizzare i valori `cluster` e `compute`.

Questo parametro non viene utilizzato quando lo scheduler lo è. `awsbatch`

Il valore predefinito è `compute`.

```
placement = compute
```

[Politica di aggiornamento: se questa impostazione viene modificata, l'aggiornamento non è consentito.](using-pcluster-update.md#update-policy-fail)

## `placement_group`
<a name="placement-group"></a>

**(Facoltativo)** Definisce il gruppo di posizionamento del cluster. Se l'[`queue_settings`](#queue-settings)impostazione è definita, questa impostazione deve essere rimossa e sostituita dalle [`placement_group`](queue-section.md#queue-placement-group) impostazioni nelle [`[queue]`sezioni](queue-section.md).

Le opzioni valide sono i seguenti valori:
+ `DYNAMIC`
+ Un nome del gruppo di posizionamento del cluster Amazon EC2 esistente

Quando impostato su`DYNAMIC`, un gruppo di collocazione univoco viene creato ed eliminato come parte dello stack del cluster.

Questo parametro non viene utilizzato quando lo scheduler lo è. `awsbatch`

Per ulteriori informazioni sui gruppi di collocamento, consulta [Placement groups](https://docs.aws.amazon.com/AWSEC2/latest/UserGuide/placement-groups.html) nella *Amazon EC2 User Guide*. Se lo stesso gruppo di collocamento viene utilizzato per diversi tipi di istanze, è più probabile che la richiesta non riesca a causa di un errore di capacità insufficiente. Per ulteriori informazioni, consulta la sezione [Capacità insufficiente delle istanze](https://docs.aws.amazon.com/AWSEC2/latest/UserGuide/troubleshooting-launch.html#troubleshooting-launch-capacity) nella Guida per l'*utente di Amazon EC2*.

Non c'è alcun valore predefinito.

Non tutti i tipi di istanza supportano i gruppi di collocazione cluster. Ad esempio, il tipo di istanza predefinito di `t3.micro` non supporta i gruppi di posizionamento dei cluster. Per informazioni sull'elenco dei tipi di istanze che supportano i gruppi di posizionamento dei cluster, consulta [le regole e le limitazioni dei gruppi di posizionamento dei cluster](https://docs.aws.amazon.com/AWSEC2/latest/UserGuide/placement-groups.html#placement-groups-limitations-cluster) nella Guida per l'*utente di Amazon EC2*. Consulta [Gruppi di collocamento e problemi relativi al lancio delle istanze](troubleshooting.md#placement-groups-and-instance-launch-issues) per i suggerimenti relativi all'utilizzo dei gruppi di collocamento.

```
placement_group = DYNAMIC
```

[Politica di aggiornamento: se questa impostazione viene modificata, l'aggiornamento non è consentito.](using-pcluster-update.md#update-policy-fail)

## `post_install`
<a name="post-install"></a>

**(Facoltativo)** Speciifica l'URL di uno script di post-installazione che viene eseguito dopo che tutte le azioni di bootstrap del nodo sono state completate. Per ulteriori informazioni, consulta [Operazioni di bootstrap personalizzate](pre_post_install.md).

Quando viene utilizzato `awsbatch` come scheduler, lo script di post-installazione viene eseguito solo sul nodo principale.

Il formato del parametro può essere "`http://hostname/path/to/script.sh`" o "`s3://bucket-name/path/to/script.sh`".

Non c'è alcun valore predefinito.

```
post_install = s3://<bucket-name>/my-post-install-script.sh
```

[Politica di aggiornamento: la flotta di elaborazione deve essere interrotta affinché questa impostazione possa essere modificata per un aggiornamento.](using-pcluster-update.md#update-policy-compute-fleet)

## `post_install_args`
<a name="post-install-args"></a>

**(Facoltativo)** Specifica un elenco tra virgolette di argomenti da passare allo script di post-installazione.

Non c'è alcun valore predefinito.

```
post_install_args = "argument-1 argument-2"
```

[Politica di aggiornamento: la flotta di elaborazione deve essere interrotta affinché questa impostazione possa essere modificata per un aggiornamento.](using-pcluster-update.md#update-policy-compute-fleet)

## `pre_install`
<a name="pre-install"></a>

**(Facoltativo)** Specifica l'URL di uno script di preinstallazione che viene eseguito prima dell'avvio di qualsiasi azione di bootstrap di distribuzione del nodo. Per ulteriori informazioni, consulta [Operazioni di bootstrap personalizzate](pre_post_install.md).

Quando viene utilizzato `awsbatch` come scheduler, lo script di preinstallazione viene eseguito solo sul nodo principale.

Il formato del parametro può essere "`http://hostname/path/to/script.sh`" o "`s3://bucket-name/path/to/script.sh`".

Non c'è alcun valore predefinito.

```
pre_install = s3://bucket-name/my-pre-install-script.sh
```

[Politica di aggiornamento: la flotta di elaborazione deve essere interrotta affinché questa impostazione possa essere modificata per un aggiornamento.](using-pcluster-update.md#update-policy-compute-fleet)

## `pre_install_args`
<a name="pre-install-args"></a>

**(Facoltativo)** Specifica un elenco tra virgolette di argomenti da passare allo script di preinstallazione.

Non c'è alcun valore predefinito.

```
pre_install_args = "argument-3 argument-4"
```

[Politica di aggiornamento: la flotta di elaborazione deve essere interrotta affinché questa impostazione possa essere modificata per un aggiornamento.](using-pcluster-update.md#update-policy-compute-fleet)

## `proxy_server`
<a name="proxy-server"></a>

**(Facoltativo)** Definisce in genere un server proxy HTTP o HTTPS. `http://x.x.x.x:8080`

Non c'è alcun valore predefinito.

```
proxy_server = http://10.11.12.13:8080
```

[Politica di aggiornamento: se questa impostazione viene modificata, l'aggiornamento non è consentito.](using-pcluster-update.md#update-policy-fail)

## `queue_settings`
<a name="queue-settings"></a>

**(Facoltativo)** [Speciifica che il cluster utilizza le code anziché una flotta di elaborazione omogenea e quali `[queue]` sezioni vengono utilizzate.](queue-section.md) La prima [`[queue]`sezione](queue-section.md) elencata è la coda di pianificazione predefinita. I nomi delle `queue` sezioni devono iniziare con una lettera minuscola, contenere non più di 30 caratteri e contenere solo lettere minuscole, numeri e trattini (-).

**Importante**  
[`queue_settings`](#queue-settings)è supportato solo quando è impostato su. [`scheduler`](#scheduler) `slurm` Le [`spot_price`](#spot-price) impostazioni [`cluster_type`](#cluster-type)[`compute_instance_type`](#compute-instance-type),[`initial_queue_size`](#configuration-initial-queue-size),[`maintain_initial_size`](#maintain-initial-size),[`max_queue_size`](#configuration-max-queue-size), [`placement`](#placement)[`placement_group`](#placement-group), e non devono essere specificate. Le [`enable_efa`](#enable-efa) impostazioni [`disable_hyperthreading`](#disable-hyperthreading) e possono essere specificate nella [`[cluster]`sezione](#cluster-definition) o nelle [`[queue]`sezioni](queue-section.md), ma non in entrambe.

Sono supportate fino a cinque (5) [`[queue]`sezioni](queue-section.md).

Per ulteriori informazioni, consulta la [`[queue]`sezione](queue-section.md).

Ad esempio, l'impostazione seguente specifica le sezioni che iniziano `[queue q1]` e `[queue q2]` vengono utilizzate.

```
queue_settings = q1, q2
```

**Nota**  
Il supporto per [`queue_settings`](#queue-settings) è stato aggiunto nella AWS ParallelCluster versione 2.9.0.

[Politica di aggiornamento: la flotta di elaborazione deve essere interrotta affinché questa impostazione possa essere modificata per un aggiornamento.](using-pcluster-update.md#update-policy-compute-fleet)

## `raid_settings`
<a name="raid-settings"></a>

**(Facoltativo)** Identifica la `[raid]` sezione con la configurazione RAID del volume Amazon EBS. Il nome della sezione deve iniziare con una lettera, contenere non più di 30 caratteri e contenere solo lettere, numeri, trattini (-) e caratteri di sottolineatura (\$1).

[Per ulteriori informazioni, consulta la sezione. `[raid]`](raid-section.md)

Ad esempio, l'impostazione seguente specifica che la sezione che inizia `[raid rs]` deve essere utilizzata per la configurazione Auto Scaling.

```
raid_settings = rs
```

[Politica di aggiornamento: se questa impostazione viene modificata, l'aggiornamento non è consentito.](using-pcluster-update.md#update-policy-fail)

## `s3_read_resource`
<a name="s3-read-resource"></a>

**(Facoltativo)** Speciifica una risorsa Amazon S3 a AWS ParallelCluster cui è concesso l'accesso in sola lettura ai nodi.

Ad esempio, `arn:aws:s3:::my_corporate_bucket*` fornisce l'accesso in sola lettura al *my\$1corporate\$1bucket* bucket e agli oggetti in esso contenuti.

Per dettagli sul formato, consulta [Lavorare con Amazon S3](s3_resources.md).

Non c'è alcun valore predefinito.

```
s3_read_resource = arn:aws:s3:::my_corporate_bucket*
```

[Politica di aggiornamento: questa impostazione può essere modificata durante un aggiornamento.](using-pcluster-update.md#update-policy-setting-supported)

## `s3_read_write_resource`
<a name="s3-read-write-resource"></a>

**(Facoltativo)** Speciifica una risorsa Amazon S3 a AWS ParallelCluster cui è read/write consentito l'accesso ai nodi.

Ad esempio, `arn:aws:s3:::my_corporate_bucket/Development/*` fornisce read/write l'accesso a tutti gli oggetti nella `Development` cartella del *my\$1corporate\$1bucket* bucket.

Per dettagli sul formato, consulta [Lavorare con Amazon S3](s3_resources.md).

Non c'è alcun valore predefinito.

```
s3_read_write_resource = arn:aws:s3:::my_corporate_bucket/*
```

[Politica di aggiornamento: questa impostazione può essere modificata durante un aggiornamento.](using-pcluster-update.md#update-policy-setting-supported)

## `scaling_settings`
<a name="scaling-settings"></a>

Identifica la `[scaling]` sezione con la configurazione Auto Scaling. Il nome della sezione deve iniziare con una lettera, contenere non più di 30 caratteri e contenere solo lettere, numeri, trattini (-) e caratteri di sottolineatura (\$1).

[Per ulteriori informazioni, consulta la sezione. `[scaling]`](scaling-section.md)

Ad esempio, l'impostazione seguente specifica che la sezione che inizia `[scaling custom]` viene utilizzata per la configurazione Auto Scaling.

```
scaling_settings = custom
```

[Politica di aggiornamento: se questa impostazione viene modificata, l'aggiornamento non è consentito.](using-pcluster-update.md#update-policy-fail)

## `scheduler`
<a name="scheduler"></a>

**(Obbligatorio)** Definisce il pianificatore del cluster.

Le opzioni valide sono i seguenti valori:

`awsbatch`  
AWS Batch  
Per ulteriori informazioni sullo `awsbatch` scheduler, vedere [configurazione della rete](networking.md#awsbatch-networking) e[AWS Batch (`awsbatch`)](awsbatchcli.md).

`sge`  
A partire dalla versione 2.11.5, AWS ParallelCluster non supporta l'uso dei SGE nostri scheduler. Torque
Son of Grid Engine (SGE)

`slurm`  
Slurm Workload Manager (Slurm)

`torque`  
A partire dalla versione 2.11.5, AWS ParallelCluster non supporta l'uso di o scheduler. SGE Torque
Torque Resource Manager (Torque)

**Nota**  
Prima della AWS ParallelCluster versione 2.7.0, il `scheduler` parametro era facoltativo e l'impostazione predefinita era. `sge` A partire dalla AWS ParallelCluster versione 2.7.0, il `scheduler` parametro è obbligatorio.

```
scheduler = slurm
```

[Politica di aggiornamento: se questa impostazione viene modificata, l'aggiornamento non è consentito.](using-pcluster-update.md#update-policy-fail)

## `shared_dir`
<a name="cluster-shared-dir"></a>

**(Facoltativo)** Definisce il percorso in cui viene montato il volume Amazon EBS condiviso.

Non utilizzare questa opzione con più volumi Amazon EBS. Fornisci invece [`shared_dir`](#cluster-shared-dir) valori in ogni [`[ebs]`sezione](ebs-section.md).

Consulta la [`[ebs]`sezione](ebs-section.md) per i dettagli sull'utilizzo di più volumi Amazon EBS.

Il valore predefinito è `/shared`.

L'esempio seguente mostra un volume Amazon EBS condiviso montato su`/myshared`.

```
shared_dir = myshared
```

[Politica di aggiornamento: se questa impostazione viene modificata, l'aggiornamento non è consentito.](using-pcluster-update.md#update-policy-fail)

## `spot_bid_percentage`
<a name="spot-bid-percentage"></a>

**(Facoltativo)** Imposta la percentuale su richiesta utilizzata per calcolare il prezzo Spot massimo per lo ComputeFleet scheduler, when `awsbatch` is.

Se non viene specificato, viene selezionato il prezzo Spot attuale di mercato, con limite massimo pari al prezzo on demand.

```
spot_bid_percentage = 85
```

[Politica di aggiornamento: questa impostazione può essere modificata durante un aggiornamento.](using-pcluster-update.md#update-policy-setting-supported)

## `spot_price`
<a name="spot-price"></a>

**Nota**  
A partire dalla versione 2.11.5, AWS ParallelCluster non supporta l'uso dei nostri scheduler. SGE Torque

**(Facoltativo)** Imposta il prezzo Spot massimo per gli ComputeFleet scheduler tradizionali (SGE, Slurm e). Torque Utilizzato solo quando l'impostazione [`cluster_type`](#cluster-type) è impostata su `spot`. Se non specifichi un valore, ti verrà addebitato il prezzo Spot, limitato al prezzo On-Demand. [Se l'[`queue_settings`](#queue-settings)impostazione è definita, questa impostazione deve essere rimossa e sostituita dalle [`spot_price`](compute-resource-section.md#compute-resource-spot-price) impostazioni nelle `[compute_resource]` sezioni.](compute-resource-section.md)

Se il pianificatore è `awsbatch`, utilizza piuttosto [spot\$1bid\$1percentage](#spot-bid-percentage).

Per assistenza nella ricerca di un'istanza Spot che soddisfi le tue esigenze, consulta il [consulente Spot Instance](https://aws.amazon.com/ec2/spot/instance-advisor/).

```
spot_price = 1.50
```

**Nota**  
Nella AWS ParallelCluster versione 2.5.0, se [`spot_price`](#spot-price) non è specificato `cluster_type = spot` ma, l'istanza viene avviata in errore. ComputeFleet Questo problema è stato risolto nella AWS ParallelCluster versione 2.5.1.

[Politica di aggiornamento: questa impostazione può essere modificata durante un aggiornamento.](using-pcluster-update.md#update-policy-setting-supported)

## `tags`
<a name="tags"></a>

**(Facoltativo)** Definisce i tag da CloudFormation utilizzare.

Se vengono specificati i tag della riga di comando tramite *--tags*, vengono uniti ai tag di configurazione.

I tag della riga di comando sovrascrivono i tag di configurazione che hanno la stessa chiave.

I tag sono in formato JSON. Non utilizzare virgolette al di fuori delle parentesi graffe.

Per ulteriori informazioni, consulta il [tipo di tag di CloudFormation risorsa](https://docs.aws.amazon.com/AWSCloudFormation/latest/UserGuide/aws-properties-resource-tags.html) nella Guida per l'*AWS CloudFormation utente*.

```
tags = {"key" : "value", "key2" : "value2"}
```

[Politica di aggiornamento: se questa impostazione viene modificata, l'aggiornamento non è consentito.](using-pcluster-update.md#update-policy-fail)

**Nota**  
La politica di aggiornamento non supportava la modifica dell'`tags`impostazione dalla AWS ParallelCluster versione 2.8.0 alla versione 2.9.1.  
Per le versioni da 2.10.0 a 2.11.7, i criteri di aggiornamento elencati che supportavano la modifica dell'impostazione non sono accurati. `tags` L'aggiornamento del cluster durante la modifica di questa impostazione non è supportato.

## `template_url`
<a name="template-url"></a>

**(Facoltativo)** Definisce il percorso del AWS CloudFormation modello utilizzato per creare il cluster.

Gli aggiornamenti utilizzano il modello originariamente usato per creare lo stack.

L’impostazione predefinita è `https://aws_region_name-aws-parallelcluster.s3.amazonaws.com/templates/aws-parallelcluster-version.cfn.json`.

**avvertimento**  
Si tratta di un parametro avanzato. Qualsiasi modifica a questa impostazione viene effettuata a proprio rischio.

```
template_url = https://us-east-1-aws-parallelcluster.s3.amazonaws.com/templates/aws-parallelcluster-2.11.9.cfn.json
```

[Politica di aggiornamento: questa impostazione non viene analizzata durante un aggiornamento.](using-pcluster-update.md#update-policy-setting-ignored)

## `vpc_settings`
<a name="vpc-settings"></a>

**(Obbligatorio)** Identifica la `[vpc]` sezione con la configurazione Amazon VPC in cui viene distribuito il cluster. Il nome della sezione deve iniziare con una lettera, contenere non più di 30 caratteri e contenere solo lettere, numeri, trattini (-) e caratteri di sottolineatura (\$1).

[Per ulteriori informazioni, consulta la sezione. `[vpc]`](vpc-section.md)

Ad esempio, l'impostazione seguente specifica che la sezione che inizia `[vpc public]` viene utilizzata per la configurazione di Amazon VPC.

```
vpc_settings = public
```

[Politica di aggiornamento: se questa impostazione viene modificata, l'aggiornamento non è consentito.](using-pcluster-update.md#update-policy-fail)