

Die vorliegende Übersetzung wurde maschinell erstellt. Im Falle eines Konflikts oder eines Widerspruchs zwischen dieser übersetzten Fassung und der englischen Fassung (einschließlich infolge von Verzögerungen bei der Übersetzung) ist die englische Fassung maßgeblich.

# Cluster-Konfigurationsdatei
<a name="cluster-configuration-file-v3"></a>

AWS ParallelCluster Version 3 verwendet separate Konfigurationsdateien, um die Definition der Cluster-Infrastruktur und die Definition der benutzerdefinierten AMIs Infrastruktur zu steuern. Alle Konfigurationsdateien verwenden YAML 1.1-Dateien. Detaillierte Informationen zu jeder dieser Konfigurationsdateien sind unten verlinkt. Einige Beispielkonfigurationen finden Sie unter [https://github.com/aws/parallelcluster/tree/release-3.0/cli/tests/pcluster/exampleaws-\$1configs](https://github.com/aws/aws-parallelcluster/tree/release-3.0/cli/tests/pcluster/example_configs).

Diese Objekte werden für die Cluster-Konfiguration der AWS ParallelCluster Version 3 verwendet.

**Topics**
+ [Eigenschaften der Cluster-Konfigurationsdatei](#cluster-configuration-file-v3.properties)
+ [`Imds` Abschnitt](Imds-cluster-v3.md)
+ [`Image` Abschnitt](Image-v3.md)
+ [`HeadNode` Abschnitt](HeadNode-v3.md)
+ [`Scheduling` Abschnitt](Scheduling-v3.md)
+ [`SharedStorage` Abschnitt](SharedStorage-v3.md)
+ [`Iam` Abschnitt](Iam-v3.md)
+ [`LoginNodes` Abschnitt](LoginNodes-v3.md)
+ [`Monitoring` Abschnitt](Monitoring-v3.md)
+ [`Tags` Abschnitt](Tags-v3.md)
+ [`AdditionalPackages` Abschnitt](AdditionalPackages-v3.md)
+ [`DirectoryService` Abschnitt](DirectoryService-v3.md)
+ [`DeploymentSettings` Abschnitt](DeploymentSettings-cluster-v3.md)

## Eigenschaften der Cluster-Konfigurationsdatei
<a name="cluster-configuration-file-v3.properties"></a>

`Region`(**Fakultativ**,`String`)  
Gibt die AWS-Region für den Cluster an. Beispiel, `us-east-2`.  
[Aktualisierungsrichtlinie: Wenn diese Einstellung geändert wird, ist das Update nicht zulässig.](using-pcluster-update-cluster-v3.md#update-policy-fail-v3)

`CustomS3Bucket`(**Fakultativ**,`String`)  
Gibt den Namen eines Amazon S3 S3-Buckets an, der in Ihrem AWS Konto erstellt wird, um Ressourcen zu speichern, die von Ihren Clustern verwendet werden, wie z. B. die Cluster-Konfigurationsdatei, und um Protokolle zu exportieren. AWS ParallelCluster verwaltet einen Amazon S3 S3-Bucket in jeder AWS Region, in der Sie Cluster erstellen. Standardmäßig sind diese Amazon S3 S3-Buckets benannt`parallelcluster-hash-v1-DO-NOT-DELETE`.  
[Aktualisierungsrichtlinie: Wenn diese Einstellung geändert wird, ist das Update nicht zulässig. Wenn Sie das Update erzwingen, wird der neue Wert ignoriert und der alte Wert wird verwendet.](using-pcluster-update-cluster-v3.md#update-policy-read-only-resource-bucket-v3)

`AdditionalResources`(**Optional**,`String`)  
Definiert eine zusätzliche AWS CloudFormation Vorlage, die zusammen mit dem Cluster gestartet wird. Diese zusätzliche Vorlage wird für die Erstellung von Ressourcen verwendet, die sich außerhalb des Clusters befinden, aber Teil des Cluster-Lebenszyklus sind.  
Der Wert muss eine HTTPS-URL zu einer öffentlichen Vorlage sein, in der alle Parameter angegeben sind.  
Es ist kein Standardwert vorhanden.  
[Aktualisierungsrichtlinie: Diese Einstellung kann während eines Updates geändert werden.](using-pcluster-update-cluster-v3.md#update-policy-setting-supported-v3)

# `Imds` Abschnitt
<a name="Imds-cluster-v3"></a>

**(Optional)** Gibt die Konfiguration des globalen Instanz-Metadatendienstes (IMDS) an.

```
Imds:
  ImdsSupport: string
```

## `Imds`-Eigenschaften
<a name="Imds-cluster-v3.properties"></a>

`ImdsSupport`(**Fakultativ**,`String`)  
Gibt an, welche IMDS-Versionen in den Clusterknoten unterstützt werden. Unterstützte Werte sind `v1.0` und `v2.0`. Der Standardwert ist `v2.0`.  
Wenn auf gesetzt `ImdsSupport` ist`v1.0`, IMDSv2 werden beide IMDSv1 und beide unterstützt.  
Wenn auf gesetzt `ImdsSupport` ist`v2.0`, IMDSv2 wird nur unterstützt.  
Weitere Informationen finden Sie unter [Verwendung IMDSv2](https://docs.aws.amazon.com/AWSEC2/latest/UserGuide/configuring-instance-metadata-service.html) im *Amazon EC2 EC2-Benutzerhandbuch für Linux-Instances*.  
[Aktualisierungsrichtlinie: Wenn diese Einstellung geändert wird, ist das Update nicht zulässig.](using-pcluster-update-cluster-v3.md#update-policy-fail-v3)  
Ab AWS ParallelCluster 3.7.0 ist der `ImdsSupport` Standardwert. `v2.0` Wir empfehlen, dass Sie IMDSv2 in Ihren benutzerdefinierten Aktionen Aufrufe auf festlegen `ImdsSupport` `v2.0` und durch IMDSv1 ersetzen.  
Support für [`Imds`](#Imds-cluster-v3)/[`ImdsSupport`](#yaml-cluster-Imds-ImdsSupport)wurde mit AWS ParallelCluster Version 3.3.0 hinzugefügt.

# `Image` Abschnitt
<a name="Image-v3"></a>

**Anmerkung**  
Versionen der offiziellen AMIs Version, die nicht mehr unterstützt werden, AWS ParallelCluster werden nach 18 Monaten Inaktivität nicht mehr verfügbar sein. Diese alten Images enthalten veraltete Software und können bei Problemen nicht unterstützt werden. Wir empfehlen dringend, zur neuesten unterstützten Version zu wechseln.

**(Erforderlich)** Definiert das Betriebssystem für den Cluster.

```
Image:
  Os: string
  CustomAmi: string
```

## `Image`-Eigenschaften
<a name="Image-v3.properties"></a>

`Os`(**Erforderlich**,`String`)  
Gibt das Betriebssystem an, das für den Cluster verwendet werden soll. Die unterstützten Werte sind`alinux2`,`alinux2023`,`ubuntu2404`,`ubuntu2204`,`rhel8`,`rocky8`,`rhel9`,`rocky9`.  
RedHat Enterprise Linux 8.7 (`rhel8`) wird ab AWS ParallelCluster Version 3.6.0 hinzugefügt.  
Wenn Sie Ihren Cluster für die Verwendung konfigurieren`rhel`, sind die On-Demand-Kosten für jeden Instance-Typ höher als bei der Konfiguration Ihres Clusters für die Verwendung anderer unterstützter Betriebssysteme. Weitere Informationen zur Preisgestaltung finden Sie unter [On-Demand-Preise](https://aws.amazon.com/ec2/pricing/on-demand) und [Wie wird Red Hat Enterprise Linux auf Amazon EC2 angeboten und wie hoch der Preis](https://aws.amazon.com/partners/redhat/faqs/#Pricing_and_Billing) ist? .  
RedHat Enterprise Linux 9 (rhel9) wird ab AWS ParallelCluster Version 3.9.0 hinzugefügt.
Alle AWS kommerziellen Regionen unterstützen alle der folgenden Betriebssysteme.      
[\[See the AWS documentation website for more details\]](http://docs.aws.amazon.com/de_de/parallelcluster/latest/ug/Image-v3.html)
[Aktualisierungsrichtlinie: Wenn diese Einstellung geändert wird, ist das Update nicht zulässig.](using-pcluster-update-cluster-v3.md#update-policy-fail-v3)  
 AWS ParallelCluster 3.8.0 unterstützt Rocky Linux 8, aber vorgefertigte Versionen von Rocky Linux 8 AMIs (für x86- und ARM-Architekturen) sind nicht verfügbar. AWS ParallelCluster 3.8.0 unterstützt das Erstellen von Clustern mit Rocky Linux 8 mithilfe von Custom. AMIs Weitere Informationen finden Sie unter. [Überlegungen zum Betriebssystem](operating-systems-v3.md#OS-Consideration-v3) AWS ParallelCluster 3.9.0 unterstützt Rocky Linux 9, aber vorgefertigte Rocky Linux 9 AMIs (für x86- und ARM-Architekturen) sind nicht verfügbar. AWS ParallelCluster 3.9.0 unterstützt das Erstellen von Clustern mit Rocky Linux 9 mithilfe von Custom. AMIs Weitere Informationen finden Sie unter [Überlegungen zum Betriebssystem](operating-systems-v3.md#OS-Consideration-v3).   
 

`CustomAmi`(**Fakultativ**,`String`)  
Gibt die ID eines benutzerdefinierten AMI an, das für die Head- und Compute-Knoten anstelle des Standard-AMI verwendet werden soll. Weitere Informationen finden Sie unter [AWS ParallelCluster AMI-Anpassung](custom-ami-v3.md).  
Wenn das benutzerdefinierte AMI zusätzliche Berechtigungen für seinen Start benötigt, müssen diese Berechtigungen sowohl den Benutzer- als auch den Headnode-Richtlinien hinzugefügt werden.  
Wenn einem benutzerdefinierten AMI beispielsweise ein verschlüsselter Snapshot zugeordnet ist, sind die folgenden zusätzlichen Richtlinien sowohl in den Benutzer- als auch in den Headnode-Richtlinien erforderlich:    
****  

```
{
    "Version":"2012-10-17",		 	 	 
    "Statement": [
        {
            "Effect": "Allow",
            "Action": [
                "kms:DescribeKey",
                "kms:ReEncrypt*",
                "kms:CreateGrant",
                "kms:Decrypt"
            ],
            "Resource": [
                "arn:aws:kms:us-east-1:111122223333:key/<AWS_KMS_KEY_ID>"
            ]
        }
    ]
}
```
Um ein benutzerdefiniertes RedHat Enterprise Linux-AMI zu erstellen, müssen Sie das Betriebssystem für die Installation der Pakete konfigurieren, die von den RHUI (AWS) -Repositorys bereitgestellt werden:`rhel-<version>-baseos-rhui-rpms`, und`rhel-<version>-appstream-rhui-rpms`. `codeready-builder-for-rhel-<version>-rhui-rpms` Darüber hinaus müssen die Repositorys auf dem benutzerdefinierten AMI `kernel-devel` Pakete auf derselben Version wie die laufende Kernelversion enthalten. Kernel.  

**Bekannte Einschränkungen:**
+ Nur RHEL 8.2 und höhere Versionen unterstützen FSx Lustre.
+ Die RHEL 8.7-Kernelversion 4.18.0-425.3.1.el8 unterstützt Lustre nicht. FSx 
+ Nur RHEL 8.4 und höhere Versionen unterstützen EFA.
+ AL23 unterstützt NICE DCV nicht, da es keine grafische Desktop-Umgebung enthält, die für die Ausführung von NICE DCV erforderlich ist. Weitere Informationen finden Sie in der offiziellen [NICE DCV DCV-Dokumentation](https://docs.aws.amazon.com//dcv/).
Informationen zur Fehlerbehebung bei benutzerdefinierten AMI-Validierungswarnungen finden Sie unter[Behebung von Problemen mit benutzerdefinierten AMIs](troubleshooting-v3-custom-amis.md).  
[Aktualisierungsrichtlinie: Wenn diese Einstellung geändert wird, ist das Update nicht zulässig.](using-pcluster-update-cluster-v3.md#update-policy-fail-v3)

# `HeadNode` Abschnitt
<a name="HeadNode-v3"></a>

**(Erforderlich)** Gibt die Konfiguration für den Hauptknoten an.

```
HeadNode:
  InstanceType: string
  Networking:
    SubnetId: string
    ElasticIp: string/boolean
    SecurityGroups:
      - string
    AdditionalSecurityGroups:
      - string
    Proxy:
      HttpProxyAddress: string
  DisableSimultaneousMultithreading: boolean
  Ssh:
    KeyName: string
    AllowedIps: string
  LocalStorage:
    RootVolume:
      Size: integer
      Encrypted: boolean
      VolumeType: string
      Iops: integer
      Throughput: integer
      DeleteOnTermination: boolean
    EphemeralVolume:
      MountDir: string
  SharedStorageType: string
  Dcv:
    Enabled: boolean
    Port: integer
    AllowedIps: string
  CustomActions:
    OnNodeStart:
      Sequence:
        - Script: string
          Args:
            - string
      Script: string
      Args:
        - string
    OnNodeConfigured:
      Sequence:
        - Script: string
          Args:
            - string
      Script: string
      Args:
        - string
    OnNodeUpdated:
      Sequence:
        - Script: string
          Args: 
            - string
      Script: string
      Args:
        - string
  Iam:
    InstanceRole: string
    InstanceProfile: string
    S3Access:
      - BucketName: string
        EnableWriteAccess: boolean
        KeyName: string
    AdditionalIamPolicies:
      - Policy: string
  Imds:
    Secured: boolean
  Image:
    CustomAmi: string
```

## `HeadNode`-Eigenschaften
<a name="HeadNode-v3.properties"></a>

`InstanceType`(**Erforderlich**,`String`)  
Gibt den Instanztyp für den Hauptknoten an.  
Gibt den Amazon EC2 EC2-Instance-Typ an, der für den Head-Knoten verwendet wird. Die Architektur des Instance-Typs muss mit der Architektur übereinstimmen, die für die Slurm [`InstanceType`](Scheduling-v3.md#yaml-Scheduling-SlurmQueues-ComputeResources-InstanceType)Einstellung AWS Batch [`InstanceType`](Scheduling-v3.md#yaml-Scheduling-AwsBatchQueues-ComputeResources-InstanceTypes)oder verwendet wurde.  
AWS ParallelCluster unterstützt die folgenden Instanztypen für die `HeadNode` Einstellung nicht.  
+ hpc6id
Wenn Sie einen p4d-Instance-Typ oder einen anderen Instance-Typ mit mehreren Netzwerkschnittstellen oder einer Netzwerkschnittstellenkarte definieren, müssen Sie auf einstellen, um öffentlichen Zugriff [`ElasticIp`](#yaml-HeadNode-Networking-ElasticIp)zu `true` gewähren. AWS public IPs kann nur Instances zugewiesen werden, die mit einer einzigen Netzwerkschnittstelle gestartet wurden. In diesem Fall empfehlen wir, ein [NAT-Gateway](https://docs.aws.amazon.com/vpc/latest/userguide/vpc-nat-gateway.html) zu verwenden, um öffentlichen Zugriff auf die Cluster-Rechenknoten zu gewähren. Weitere Informationen finden Sie unter [Zuweisen einer öffentlichen IPv4 Adresse beim Instance-Start](https://docs.aws.amazon.com/AWSEC2/latest/UserGuide/using-instance-addressing.html#public-ip-addresses) im *Amazon EC2 EC2-Benutzerhandbuch für Linux-Instances*.  
[Aktualisierungsrichtlinie: Wenn diese Einstellung geändert wird, ist das Update nicht zulässig.](using-pcluster-update-cluster-v3.md#update-policy-fail-v3)

`DisableSimultaneousMultithreading`(**Optional**,`Boolean`)  
Wenn`true`, deaktiviert Hyperthreading auf dem Hauptknoten. Der Standardwert ist `false`.  
Nicht alle Instance-Typen können Hyper-Threading deaktivieren. Eine Liste der Instance-Typen, die die Deaktivierung von Hyperthreading unterstützen, finden Sie unter [CPU-Kerne und Threads für jeden CPU-Kern pro Instance-Typ](https://docs.aws.amazon.com/AWSEC2/latest/UserGuide/instance-optimize-cpu.html#cpu-options-supported-instances-values) im *Amazon EC2 EC2-Benutzerhandbuch*.   
[Aktualisierungsrichtlinie: Wenn diese Einstellung geändert wird, ist das Update nicht zulässig.](using-pcluster-update-cluster-v3.md#update-policy-fail-v3)

`SharedStorageType`**(Optional,)** `String`  
Gibt den Speichertyp an, der für intern gemeinsam genutzte Daten verwendet wird. Zu den intern gemeinsam genutzten Daten gehören Daten, die zur Verwaltung des Clusters AWS ParallelCluster verwendet werden, und die Standarddaten, `/home` sofern sie nicht im [`SharedStorage` Abschnitt](SharedStorage-v3.md) Mount-Verzeichnis angegeben sind, zum Mounten eines gemeinsam genutzten Dateisystem-Volumes. Weitere Informationen zu intern gemeinsam genutzten Daten finden Sie unter[AWS ParallelCluster interne Verzeichnisse](directories-v3.md).  
Wenn`Ebs`, was der Standardspeichertyp ist, exportiert der Hauptknoten Teile seines Root-Volumes als gemeinsam genutzte Verzeichnisse für Rechenknoten und Anmeldeknoten, die NFS verwenden.  
Wenn`Efs`, ParallelCluster wird ein EFS-Dateisystem erstellt, das für gemeinsam genutzte interne Daten verwendet wird und`/home`.  
[Aktualisierungsrichtlinie: Wenn diese Einstellung geändert wird, ist das Update nicht zulässig.](using-pcluster-update-cluster-v3.md#update-policy-fail-v3)  
Wenn der Cluster horizontal skaliert wird, kann der EBS-Speichertyp zu Leistungsengpässen führen, da der Hauptknoten mithilfe von NFS-Exporten Daten vom Root-Volume mit den Rechenknoten teilt. Mit EFS können Sie NFS-Exporte bei der Skalierung Ihres Clusters vermeiden und damit verbundene Leistungsengpässe vermeiden. Es wird empfohlen, EBS zu wählen, um das maximale read/write Potenzial für kleine Dateien und den Installationsprozess zu nutzen. Wählen Sie EFS für Skalierung.

## `Networking`
<a name="HeadNode-v3-Networking"></a>

**(Erforderlich)** Definiert die Netzwerkkonfiguration für den Hauptknoten.

```
Networking:
  SubnetId: string
  ElasticIp: string/boolean
  SecurityGroups:
    - string
  AdditionalSecurityGroups:
    - string
  Proxy:
    HttpProxyAddress: string
```

[Aktualisierungsrichtlinie: Wenn diese Einstellung geändert wird, ist das Update nicht zulässig.](using-pcluster-update-cluster-v3.md#update-policy-fail-v3)

### `Networking`-Eigenschaften
<a name="HeadNode-v3-Networking.properties"></a>

`SubnetId`(**Erforderlich**,`String`)  
Gibt die ID eines vorhandenen Subnetzes an, in dem der Hauptknoten bereitgestellt werden soll.  
[Aktualisierungsrichtlinie: Wenn diese Einstellung geändert wird, ist das Update nicht zulässig.](using-pcluster-update-cluster-v3.md#update-policy-fail-v3)

`ElasticIp`(**Fakultativ**,`String`)  
Erzeugt oder weist dem Hauptknoten eine Elastic IP-Adresse zu. Unterstützte Werte sind `true``false`, oder die ID einer vorhandenen Elastic IP-Adresse. Der Standardwert ist `false`.  
[Aktualisierungsrichtlinie: Wenn diese Einstellung geändert wird, ist das Update nicht zulässig.](using-pcluster-update-cluster-v3.md#update-policy-fail-v3)

`SecurityGroups`(**Optional**,`[String]`)  
Liste der Amazon VPC-Sicherheitsgruppen-IDs, die für den Hauptknoten verwendet werden sollen. Diese ersetzen die Sicherheitsgruppen, die AWS ParallelCluster erstellt werden, wenn diese Eigenschaft nicht enthalten ist.  
Stellen Sie sicher, dass die Sicherheitsgruppen für Ihre [SharedStorage](SharedStorage-v3.md)Systeme richtig konfiguriert sind.  
[Aktualisierungsrichtlinie: Diese Einstellung kann während eines Updates geändert werden.](using-pcluster-update-cluster-v3.md#update-policy-setting-supported-v3)

`AdditionalSecurityGroups`(**Optional**,`[String]`)  
Liste zusätzlicher Amazon VPC-Sicherheitsgruppen-IDs, die für den Hauptknoten verwendet werden sollen.  
[Aktualisierungsrichtlinie: Diese Einstellung kann während eines Updates geändert werden.](using-pcluster-update-cluster-v3.md#update-policy-setting-supported-v3)

`Proxy`(**Fakultativ)**  
Gibt die Proxyeinstellungen für den Hauptknoten an.  

```
Proxy:
                            HttpProxyAddress: 
                            string
```  
` HttpProxyAddress`(**Optional**,`String`)  
Definiert einen HTTP- oder HTTPS-Proxy-Server, in der Regel `https://x.x.x.x:8080`.  
Es ist kein Standardwert vorhanden.  
[Aktualisierungsrichtlinie: Wenn diese Einstellung geändert wird, ist das Update nicht zulässig.](using-pcluster-update-cluster-v3.md#update-policy-fail-v3)

## `Ssh`
<a name="HeadNode-v3-Ssh"></a>

**(Optional)** Definiert die Konfiguration für den SSH-Zugriff auf den Hauptknoten.

```
Ssh:
      KeyName: string
      AllowedIps: string
```

[Aktualisierungsrichtlinie: Diese Einstellung kann während eines Updates geändert werden.](using-pcluster-update-cluster-v3.md#update-policy-setting-supported-v3)

### `Ssh`-Eigenschaften
<a name="HeadNode-v3-Ssh.properties"></a>

`KeyName`(**Optional**,`String`)  
Benennt ein vorhandenes Amazon EC2 EC2-Schlüsselpaar, um den SSH-Zugriff auf den Hauptknoten zu ermöglichen.  
[Aktualisierungsrichtlinie: Wenn diese Einstellung geändert wird, ist das Update nicht zulässig.](using-pcluster-update-cluster-v3.md#update-policy-fail-v3)

`AllowedIps`(**Optional**,) `String`  
Gibt den IP-Bereich im CIDR-Format oder eine Präfixlisten-ID für SSH-Verbindungen zum Hauptknoten an. Der Standardwert ist `0.0.0.0/0`.  
[Aktualisierungsrichtlinie: Diese Einstellung kann während eines Updates geändert werden.](using-pcluster-update-cluster-v3.md#update-policy-setting-supported-v3)

## `LocalStorage`
<a name="HeadNode-v3-LocalStorage"></a>

**(Optional)** Definiert die lokale Speicherkonfiguration für den Hauptknoten.

```
LocalStorage:
  RootVolume:
    Size: integer
    Encrypted: boolean
    VolumeType: string
    Iops: integer
    Throughput: integer
    DeleteOnTermination: boolean
  EphemeralVolume:
    MountDir: string
```

[Aktualisierungsrichtlinie: Wenn diese Einstellung geändert wird, ist das Update nicht zulässig.](using-pcluster-update-cluster-v3.md#update-policy-fail-v3)

### `LocalStorage`-Eigenschaften
<a name="HeadNode-v3-LocalStorage.properties"></a>

`RootVolume`(**Erforderlich**)  
Gibt den Root-Volume-Speicher für den Hauptknoten an.  

```
RootVolume:
  Size: integer
  Encrypted: boolean
  VolumeType: string
  Iops: integer
  Throughput: integer
  DeleteOnTermination: boolean
```
[Aktualisierungsrichtlinie: Wenn diese Einstellung geändert wird, ist das Update nicht zulässig.](using-pcluster-update-cluster-v3.md#update-policy-fail-v3)    
`Size`(**Fakultativ**,`Integer`)  
Gibt die Größe des Stammvolumens des Kopfknotens in Gibibyte (GiB) an. Die Standardgröße stammt aus dem AMI. Die Verwendung einer anderen Größe erfordert, dass das AMI sie unterstützt`growroot`.   
[Aktualisierungsrichtlinie: Wenn diese Einstellung geändert wird, ist das Update nicht zulässig.](using-pcluster-update-cluster-v3.md#update-policy-fail-v3)  
`Encrypted`(**Fakultativ**,`Boolean`)  
Gibt an, ob das Root-Volume verschlüsselt ist. Der Standardwert ist `true`.  
[Aktualisierungsrichtlinie: Wenn diese Einstellung geändert wird, ist das Update nicht zulässig.](using-pcluster-update-cluster-v3.md#update-policy-fail-v3)  
` VolumeType`(**Optional**,`String`)  
Gibt den [Amazon EBS-Volumetyp](https://docs.aws.amazon.com/AWSEC2/latest/UserGuide/EBSVolumeTypes.html) an. Unterstützte Werte sind `gp2``gp3`,`io1`,`io2`, `sc1``st1`, und`standard`. Der Standardwert ist `gp3`.  
Weitere Informationen finden Sie unter [Amazon EBS-Volume-Typen](https://docs.aws.amazon.com/AWSEC2/latest/UserGuide/EBSVolumeTypes.html) im *Amazon EC2-Benutzerhandbuch*.  
[Aktualisierungsrichtlinie: Wenn diese Einstellung geändert wird, ist das Update nicht zulässig.](using-pcluster-update-cluster-v3.md#update-policy-fail-v3)  
`Iops`(**Fakultativ**,`Integer`)  
Definiert die Anzahl der IOPS für Volumes `gp3` vom Typ `io1``io2`, und.  
Der Standardwert, die unterstützten Werte und das `volume_size` Verhältnis `volume_iops` zum Verhältnis variieren je nach `VolumeType` und`Size`.  
[Aktualisierungsrichtlinie: Wenn diese Einstellung geändert wird, ist das Update nicht zulässig.](using-pcluster-update-cluster-v3.md#update-policy-fail-v3)    
`VolumeType` = `io1`  
Standard `Iops` = 100  
Unterstützte Werte `Iops` = 100—64000 †  
Maximales `Iops` `Size` Verhältnis = 50 IOPS pro GiB. 5000 IOPS erfordern einen Wert `Size` von mindestens 100 GiB.  
`VolumeType` = `io2`  
Standard `Iops` = 100  
Unterstützte Werte `Iops` = 100—64000 (256000 für `io2` Block Express-Volumes) †  
Maximales `Iops` `Size` Verhältnis = 500 IOPS pro GiB. 5000 IOPS erfordern einen Wert `Size` von mindestens 10 GiB.  
`VolumeType` = `gp3`  
Standard `Iops` = 3000  
Unterstützte Werte `Iops` = 3000—16000  
Maximales `Iops` `Size` Verhältnis = 500 IOPS pro GiB. 5000 IOPS erfordern einen Wert `Size` von mindestens 10 GiB.
† Maximale IOPS wird nur für [Instances garantiert, die auf dem Nitro-System basieren](https://docs.aws.amazon.com/AWSEC2/latest/UserGuide/instance-types.html#ec2-nitro-instances) und mit mehr als 32.000 IOPS ausgestattet sind. Andere Instanzen garantieren bis zu 32.000 IOPS. Ältere `io1` Volumes erreichen möglicherweise nicht die volle Leistung, es sei denn, Sie [ändern das](https://docs.aws.amazon.com/AWSEC2/latest/UserGuide/ebs-modify-volume.html) Volume. `io2` Block Express-Volumes unterstützen `Iops` Werte bis zu 256000 für `R5b` Instance-Typen. Weitere Informationen finden Sie unter [`io2`Block Express-Volumes](https://docs.aws.amazon.com/AWSEC2/latest/UserGuide/ebs-volume-types.html#io2-block-express) im *Amazon EC2 EC2-Benutzerhandbuch*.  
[Aktualisierungsrichtlinie: Diese Einstellung kann während eines Updates geändert werden.](using-pcluster-update-cluster-v3.md#update-policy-setting-supported-v3)  
`Throughput`(**Fakultativ**,`Integer`)  
Definiert den Durchsatz für `gp3` Volumetypen in MiB/s. Diese Einstellung ist nur gültig, wenn sie `VolumeType` ist. `gp3` Der Standardwert ist `125`. Unterstützte Werte: 125—1000 MiB/s  
Das Verhältnis von `Throughput` zu `Iops` darf nicht mehr als 0,25 betragen. Der maximale Durchsatz von 1000 MiB/s setzt voraus, dass die `Iops` Einstellung mindestens 4000 beträgt.  
[Aktualisierungsrichtlinie: Wenn diese Einstellung geändert wird, ist das Update nicht zulässig.](using-pcluster-update-cluster-v3.md#update-policy-fail-v3)  
`DeleteOnTermination`(**Fakultativ**,`Boolean`)  
Gibt an, ob das Root-Volume gelöscht werden soll, wenn der Hauptknoten beendet wird. Der Standardwert ist `true`.  
[Aktualisierungsrichtlinie: Wenn diese Einstellung geändert wird, ist das Update nicht zulässig.](using-pcluster-update-cluster-v3.md#update-policy-fail-v3)

`EphemeralVolume`(**Fakultativ**)  
Gibt Details für jedes Instance-Speicher-Volume an. Weitere Informationen finden Sie unter [Instance-Speicher-Volumes](https://docs.aws.amazon.com/AWSEC2/latest/UserGuide/InstanceStorage.html#instance-store-volumes) im *Amazon EC2 EC2-Benutzerhandbuch*.  

```
EphemeralVolume:
  MountDir: string
```
[Aktualisierungsrichtlinie: Wenn diese Einstellung geändert wird, ist das Update nicht zulässig.](using-pcluster-update-cluster-v3.md#update-policy-fail-v3)    
`MountDir`(**Fakultativ**,`String`)  
Gibt das Mount-Verzeichnis für das Instance-Speicher-Volume an. Der Standardwert ist `/scratch`.  
[Aktualisierungsrichtlinie: Wenn diese Einstellung geändert wird, ist das Update nicht zulässig.](using-pcluster-update-cluster-v3.md#update-policy-fail-v3)

## `Dcv`
<a name="HeadNode-v3-Dcv"></a>

**(Optional)** Definiert die Konfigurationseinstellungen für den Amazon DCV-Server, der auf dem Hauptknoten ausgeführt wird.

Weitere Informationen finden Sie unter [Stellen Sie über Amazon DCV eine Connect zu den Head- und Login-Knoten her](dcv-v3.md).

```
Dcv:
  Enabled: boolean
  Port: integer
  AllowedIps: string
```

**Wichtig**  
Standardmäßig AWS ParallelCluster ist der Amazon DCV-Port, der eingerichtet wurde, für alle IPv4 Adressen geöffnet. Sie können jedoch nur dann eine Verbindung zu einem Amazon DCV-Port herstellen, wenn Sie die URL für die Amazon DCV-Sitzung haben und sich innerhalb von 30 Sekunden nach Rückgabe der URL mit der Amazon DCV-Sitzung verbinden. `pcluster dcv-connect` Verwenden Sie die `AllowedIps` Einstellung, um den Zugriff auf den Amazon DCV-Port mit einem CIDR-formatierten IP-Bereich weiter einzuschränken, und verwenden Sie die `Port` Einstellung, um einen nicht standardmäßigen Port festzulegen.

[Aktualisierungsrichtlinie: Wenn diese Einstellung geändert wird, ist das Update nicht zulässig.](using-pcluster-update-cluster-v3.md#update-policy-fail-v3)

### `Dcv`-Eigenschaften
<a name="HeadNode-v3-Dcv.properties"></a>

`Enabled`**(Erforderlich,)** `Boolean`  
Gibt an, ob Amazon DCV auf dem Hauptknoten aktiviert ist. Der Standardwert ist `false`.  
[Aktualisierungsrichtlinie: Wenn diese Einstellung geändert wird, ist das Update nicht zulässig.](using-pcluster-update-cluster-v3.md#update-policy-fail-v3)  
Amazon DCV generiert automatisch ein selbstsigniertes Zertifikat, das zur Sicherung des Datenverkehrs zwischen dem Amazon DCV-Client und dem Amazon DCV-Server verwendet wird, der auf dem Hauptknoten ausgeführt wird. Informationen zum Konfigurieren Ihres eigenen Zertifikats finden Sie unter [Amazon DCV HTTPS-Zertifikat](dcv-v3.md#dcv-v3-certificate).

`Port`**(Optional,)** `Integer`  
Gibt den Port für Amazon DCV an. Der Standardwert ist `8443`.  
[Aktualisierungsrichtlinie: Wenn diese Einstellung geändert wird, ist das Update nicht zulässig.](using-pcluster-update-cluster-v3.md#update-policy-fail-v3)

`AllowedIps`(**Optional, empfohlen**,`String`)  
Gibt den CIDR-formatierten IP-Bereich für Verbindungen zu Amazon DCV an. Diese Einstellung wird nur verwendet, wenn AWS ParallelCluster die Sicherheitsgruppe erstellt wird. Der Standardwert ist `0.0.0.0/0` und ermöglicht den Zugriff von jeder beliebigen Internetadresse.  
[Aktualisierungsrichtlinie: Diese Einstellung kann während eines Updates geändert werden.](using-pcluster-update-cluster-v3.md#update-policy-setting-supported-v3)

## `CustomActions`
<a name="HeadNode-v3-CustomActions"></a>

**(Optional)** Gibt benutzerdefinierte Skripts an, die auf dem Hauptknoten ausgeführt werden sollen.

```
CustomActions:
  OnNodeStart:
    Sequence:
      - Script: string
        Args:
          - string
    Script: string
    Args:
      - string
  OnNodeConfigured:
    Sequence:
      - Script: string
        Args:
          - string
    Script: string
    Args:
      - string
  OnNodeUpdated:
    Sequence:
      - Script: string
        Args: 
          - string
    Script: string
    Args: 
      - string
```

### `CustomActions`-Eigenschaften
<a name="HeadNode-v3-CustomActions.properties"></a>

`OnNodeStart`(**Fakultativ**)  
Gibt ein einzelnes Skript oder eine Sequenz von Skripten an, die auf dem Hauptknoten ausgeführt werden sollen, bevor eine Bootstrap-Aktion zur Knotenbereitstellung gestartet wird. Weitere Informationen finden Sie unter [Benutzerdefinierte Bootstrap-Aktionen](custom-bootstrap-actions-v3.md).    
`Sequence`(**Fakultativ)**  
Liste der auszuführenden Skripts. AWS ParallelCluster führt die Skripts in derselben Reihenfolge aus, in der sie in der Konfigurationsdatei aufgeführt sind, beginnend mit der ersten.    
`Script`(**Erforderlich**,`String`)  
Gibt die zu verwendende Datei an. Der Dateipfad kann mit `https://` oder beginnen`s3://`.  
`Args`(**Fakultativ**,`[String]`)  
Liste der Argumente, die an das Skript übergeben werden sollen.  
`Script`(**Erforderlich**,`String`)  
Gibt die Datei an, die für ein einzelnes Skript verwendet werden soll. Der Dateipfad kann mit `https://` oder beginnen`s3://`.  
`Args`(**Fakultativ**,`[String]`)  
Liste der Argumente, die an das einzelne Skript übergeben werden sollen.
[Aktualisierungsrichtlinie: Wenn diese Einstellung geändert wird, ist das Update nicht zulässig.](using-pcluster-update-cluster-v3.md#update-policy-fail-v3)

`OnNodeConfigured`(**Fakultativ**)  
Gibt ein einzelnes Skript oder eine Sequenz von Skripten an, die auf dem Hauptknoten ausgeführt werden sollen, nachdem die Bootstrap-Aktionen des Knotens abgeschlossen sind. Weitere Informationen finden Sie unter [Benutzerdefinierte Bootstrap-Aktionen](custom-bootstrap-actions-v3.md).    
`Sequence`(**Optional)**  
Gibt die Liste der auszuführenden Skripten an.    
`Script`(**Erforderlich**,`String`)  
Gibt die zu verwendende Datei an. Der Dateipfad kann mit `https://` oder beginnen`s3://`.  
`Args`(**Fakultativ**,`[String]`)  
Liste der Argumente, die an das Skript übergeben werden sollen.  
`Script`(**Erforderlich**,`String`)  
Gibt die Datei an, die für ein einzelnes Skript verwendet werden soll. Der Dateipfad kann mit `https://` oder beginnen`s3://`.  
`Args`(**Fakultativ**,`[String]`)  
Liste der Argumente, die an das einzelne Skript übergeben werden sollen.
[Aktualisierungsrichtlinie: Wenn diese Einstellung geändert wird, ist das Update nicht zulässig.](using-pcluster-update-cluster-v3.md#update-policy-fail-v3)

`OnNodeUpdated`(**Fakultativ**)  
Gibt ein einzelnes Skript oder eine Sequenz von Skripten an, die nach Abschluss der Knotenaktualisierungsaktionen auf dem Hauptknoten ausgeführt werden sollen. Weitere Informationen finden Sie unter [Benutzerdefinierte Bootstrap-Aktionen](custom-bootstrap-actions-v3.md).    
`Sequence`(**Optional**)  
Gibt die Liste der auszuführenden Skripten an.    
`Script`(**Erforderlich**,`String`)  
Gibt die zu verwendende Datei an. Der Dateipfad kann mit `https://` oder beginnen`s3://`.  
`Args`(**Fakultativ**,`[String]`)  
Liste der Argumente, die an das Skript übergeben werden sollen.  
`Script`(**Erforderlich**,`String`)  
Gibt die Datei an, die für das einzelne Skript verwendet werden soll. Der Dateipfad kann mit `https://` oder beginnen`s3://`.  
`Args`(**Fakultativ**,`[String]`)  
Liste der Argumente, die an das einzelne Skript übergeben werden sollen.
[Aktualisierungsrichtlinie: Diese Einstellung kann während eines Updates geändert werden.](using-pcluster-update-cluster-v3.md#update-policy-setting-supported-v3)  
`OnNodeUpdated`wird ab AWS ParallelCluster 3.4.0 hinzugefügt.  
`Sequence`wird ab AWS ParallelCluster Version 3.6.0 hinzugefügt. Wenn Sie angeben`Sequence`, können Sie mehrere Skripts für eine benutzerdefinierte Aktion auflisten. AWS ParallelCluster unterstützt weiterhin die Konfiguration einer benutzerdefinierten Aktion mit einem einzigen Skript, ohne dies einzuschließen`Sequence`.  
AWS ParallelCluster unterstützt nicht, sowohl ein einzelnes Skript als auch `Sequence` dieselbe benutzerdefinierte Aktion einzubeziehen.

## `Iam`
<a name="HeadNode-v3-Iam"></a>

**(Optional)** Gibt entweder eine Instanzrolle oder ein Instanzprofil an, das auf dem Hauptknoten verwendet werden soll, um die Standard-Instanzrolle oder das Instanzprofil für den Cluster zu überschreiben.

```
Iam:
  InstanceRole: string
  InstanceProfile: string
  S3Access:
    - BucketName: string
      EnableWriteAccess: boolean
      KeyName: string
  AdditionalIamPolicies:
    - Policy: string
```

[Aktualisierungsrichtlinie: Diese Einstellung kann während eines Updates geändert werden.](using-pcluster-update-cluster-v3.md#update-policy-setting-supported-v3)

### `Iam`-Eigenschaften
<a name="HeadNode-v3-Iam.properties"></a>

`InstanceProfile`(**Optional**,`String`)  
Gibt ein Instanzprofil an, um das standardmäßige Instanzprofil des Hauptknotens zu überschreiben. Sie können nicht sowohl `InstanceProfile` als auch `InstanceRole` angeben. Das Format ist `arn:Partition:iam::Account:instance-profile/InstanceProfileName`.  
Wenn dies angegeben ist, können die `AdditionalIamPolicies` Einstellungen `S3Access` und nicht angegeben werden.  
Es wird empfohlen, eine oder beide `AdditionalIamPolicies` Einstellungen für `S3Access` und anzugeben, da hinzugefügte Funktionen AWS ParallelCluster häufig neue Berechtigungen erfordern.  
[Aktualisierungsrichtlinie: Wenn diese Einstellung geändert wird, ist das Update nicht zulässig.](using-pcluster-update-cluster-v3.md#update-policy-fail-v3)

`InstanceRole`(**Optional**,`String`)  
Gibt eine Instanzrolle an, um die standardmäßige Instanzrolle für den Hauptknoten zu überschreiben. Sie können nicht sowohl `InstanceProfile` als auch `InstanceRole` angeben. Das Format ist `arn:Partition:iam::Account:role/RoleName`.  
Wenn dies angegeben ist, können die `AdditionalIamPolicies` Einstellungen `S3Access` und nicht angegeben werden.  
Es wird empfohlen, eine oder beide `AdditionalIamPolicies` Einstellungen für `S3Access` und anzugeben, da hinzugefügte Funktionen AWS ParallelCluster häufig neue Berechtigungen erfordern.  
[Aktualisierungsrichtlinie: Diese Einstellung kann während eines Updates geändert werden.](using-pcluster-update-cluster-v3.md#update-policy-setting-supported-v3)

### `S3Access`
<a name="HeadNode-v3-Iam-S3Access.properties"></a>

`S3Access`(**Fakultativ**)  
Gibt einen Bucket an. Dies wird verwendet, um Richtlinien zu generieren, um den angegebenen Zugriff auf den Bucket zu gewähren.  
Wenn dies angegeben ist, können die `InstanceRole` Einstellungen `InstanceProfile` und nicht angegeben werden.  
Es wird empfohlen, eine oder beide `AdditionalIamPolicies` Einstellungen für `S3Access` und anzugeben, da hinzugefügte Funktionen AWS ParallelCluster häufig neue Berechtigungen erfordern.  

```
S3Access:
  - BucketName: string
    EnableWriteAccess: boolean
    KeyName: string
```
[Aktualisierungsrichtlinie: Diese Einstellung kann während eines Updates geändert werden.](using-pcluster-update-cluster-v3.md#update-policy-setting-supported-v3)    
`BucketName`(**Erforderlich**,`String`)  
Der Name des -Buckets.  
[Aktualisierungsrichtlinie: Diese Einstellung kann während eines Updates geändert werden.](using-pcluster-update-cluster-v3.md#update-policy-setting-supported-v3)  
`KeyName`(**Fakultativ**,`String`)  
Der Schlüssel für den Eimer. Der Standardwert lautet "`*`".  
[Aktualisierungsrichtlinie: Diese Einstellung kann während eines Updates geändert werden.](using-pcluster-update-cluster-v3.md#update-policy-setting-supported-v3)  
` EnableWriteAccess`(**Fakultativ**,`Boolean`)  
Gibt an, ob der Schreibzugriff für den Bucket aktiviert ist. Der Standardwert ist `false`.  
[Aktualisierungsrichtlinie: Diese Einstellung kann während eines Updates geändert werden.](using-pcluster-update-cluster-v3.md#update-policy-setting-supported-v3)

### `AdditionalIamPolicies`
<a name="HeadNode-v3-Iam-AdditionalIamPolicies.properties"></a>

`AdditionalIamPolicies`(**Fakultativ**)  
Gibt eine Liste von Amazon Resource Names (ARNs) von IAM-Richtlinien für Amazon EC2 an. Diese Liste ist der Root-Rolle angehängt, die für den Hauptknoten verwendet wird, zusätzlich zu den Berechtigungen, die für erforderlich sind. AWS ParallelCluster  
Ein IAM-Richtlinienname und sein ARN sind unterschiedlich. Namen können nicht verwendet werden.  
Wenn dies angegeben ist, können die `InstanceRole` Einstellungen `InstanceProfile` und nicht angegeben werden.  
Wir empfehlen die Verwendung, `AdditionalIamPolicies` da sie zu den erforderlichen Berechtigungen hinzugefügt `AdditionalIamPolicies` werden und alle erforderlichen Berechtigungen enthalten `InstanceRole` müssen. AWS ParallelCluster Die erforderlichen Berechtigungen ändern sich häufig von Version zu Version, da Funktionen hinzugefügt werden.  
Es ist kein Standardwert vorhanden.  

```
AdditionalIamPolicies:
  - Policy: string
```
[Aktualisierungsrichtlinie: Diese Einstellung kann während eines Updates geändert werden.](using-pcluster-update-cluster-v3.md#update-policy-setting-supported-v3)    
` Policy`(**Fakultativ**,`[String]`)  
Liste der IAM-Richtlinien.  
[Aktualisierungsrichtlinie: Diese Einstellung kann während eines Updates geändert werden.](using-pcluster-update-cluster-v3.md#update-policy-setting-supported-v3)

## `Imds`
<a name="HeadNode-v3-Imds"></a>

**(Optional)** Gibt die Eigenschaften für den Instance-Metadatendienst (IMDS) an. Weitere Informationen finden Sie unter [So funktioniert der Instance-Metadaten-Service Version 2](https://docs.aws.amazon.com/AWSEC2/latest/UserGuide/configuring-instance-metadata-service.html#instance-metadata-v2-how-it-works) im *Amazon EC2-Benutzerhandbuch*.

```
Imds:
    Secured: boolean
```

[Aktualisierungsrichtlinie: Wenn diese Einstellung geändert wird, ist das Update nicht zulässig.](using-pcluster-update-cluster-v3.md#update-policy-fail-v3)

### `Imds`-Eigenschaften
<a name="HeadNode-v3-Imds.properties"></a>

`Secured`(**Fakultativ**,`Boolean`)  
Wenn`true`, beschränkt den Zugriff auf das IMDS des Hauptknotens (und die Anmeldeinformationen des Instanzprofils) auf eine Untergruppe von Superusern.  
Wenn `false` jeder Benutzer im Hauptknoten Zugriff auf das IMDS des Hauptknotens hat.  

Die folgenden Benutzer haben Zugriff auf das IMDS des Hauptknotens:
+ Root-Benutzer
+ Cluster-Administratorbenutzer (`pc-cluster-admin`standardmäßig)
+ betriebssystemspezifischer Standardbenutzer (unter `ec2-user` Amazon Linux 2 und RedHat unter `ubuntu` Ubuntu 18.04).
Der Standardwert ist `true`.  
Die `default` Benutzer sind dafür verantwortlich, dass ein Cluster über die Berechtigungen verfügt, die er für die Interaktion mit AWS Ressourcen benötigt. Wenn Sie den `default` Benutzer-IMDS-Zugriff deaktivieren, AWS ParallelCluster können Sie die Rechenknoten nicht verwalten und funktionieren nicht mehr. Deaktivieren Sie den `default` Benutzer-IMDS-Zugriff nicht.  
Wenn einem Benutzer Zugriff auf das IMDS des Hauptknotens gewährt wird, kann er die im [Instanzprofil des Hauptknotens](iam-roles-in-parallelcluster-v3.md) enthaltenen Berechtigungen verwenden. Sie können diese Berechtigungen beispielsweise verwenden, um Amazon EC2 EC2-Instances zu starten oder das Passwort für eine AD-Domain zu lesen, für deren Verwendung der Cluster für die Authentifizierung konfiguriert ist.  
Um den IMDS-Zugriff einzuschränken, AWS ParallelCluster verwaltet eine Kette von. `iptables`  
Cluster-Benutzer mit `sudo` Zugriff können den Zugriff auf das IMDS des Hauptknotens für andere einzelne Benutzer, einschließlich `default` Benutzer, selektiv aktivieren oder deaktivieren, indem sie den folgenden Befehl ausführen:  

```
$ sudo /opt/parallelcluster/scripts/imds/imds-access.sh --allow <USERNAME>
```
Sie können den Benutzer-IMDS-Zugriff mit der `--deny` Option für diesen Befehl deaktivieren.  
Wenn Sie unwissentlich den `default` Benutzer-IMDS-Zugriff deaktivieren, können Sie die Berechtigung mithilfe der Option wiederherstellen. `--allow`  
Jede Anpassung von `iptables` oder `ip6tables` Regeln kann den Mechanismus beeinträchtigen, der zur Beschränkung des IMDS-Zugriffs auf den Hauptknoten verwendet wird.
[Aktualisierungsrichtlinie: Wenn diese Einstellung geändert wird, ist das Update nicht zulässig.](using-pcluster-update-cluster-v3.md#update-policy-fail-v3)

## `Image`
<a name="HeadNode-v3-Image"></a>

**(Optional)** Definiert ein benutzerdefiniertes Image für den Hauptknoten.

```
Image:
     CustomAmi: string
```

[Aktualisierungsrichtlinie: Wenn diese Einstellung geändert wird, ist das Update nicht zulässig.](using-pcluster-update-cluster-v3.md#update-policy-fail-v3)

### `Image`-Eigenschaften
<a name="HeadNode-v3-Image.properties"></a>

`CustomAmi`(**Fakultativ**,`String`)  
Gibt die ID eines benutzerdefinierten AMI an, das für den Hauptknoten anstelle des Standard-AMI verwendet werden soll. Weitere Informationen finden Sie unter [AWS ParallelCluster AMI-Anpassung](custom-ami-v3.md).  
Wenn das benutzerdefinierte AMI zusätzliche Berechtigungen für seinen Start benötigt, müssen diese Berechtigungen sowohl den Benutzer- als auch den Headnode-Richtlinien hinzugefügt werden.  
Wenn einem benutzerdefinierten AMI beispielsweise ein verschlüsselter Snapshot zugeordnet ist, sind die folgenden zusätzlichen Richtlinien sowohl in den Benutzer- als auch in den Headnode-Richtlinien erforderlich:    
****  

```
{
    "Version":"2012-10-17",		 	 	 
    "Statement": [
        {
            "Effect": "Allow",
            "Action": [
                "kms:DescribeKey",
                "kms:ReEncrypt*",
                "kms:CreateGrant",
                "kms:Decrypt"
            ],
            "Resource": [
                "arn:aws:kms:us-east-1:111122223333:key/<AWS_KMS_KEY_ID>"
            ]
        }
    ]
}
```
Informationen zur Fehlerbehebung bei benutzerdefinierten AMI-Validierungswarnungen finden Sie unter[Behebung von Problemen mit benutzerdefinierten AMIs](troubleshooting-v3-custom-amis.md).  
[Aktualisierungsrichtlinie: Wenn diese Einstellung geändert wird, ist das Update nicht zulässig.](using-pcluster-update-cluster-v3.md#update-policy-fail-v3)

# `Scheduling` Abschnitt
<a name="Scheduling-v3"></a>

**(Erforderlich)** Definiert den Job Scheduler, der im Cluster verwendet wird, und die Recheninstanzen, die der Job Scheduler verwaltet. Sie können entweder den Slurm oder AWS Batch -Scheduler verwenden. Jeder unterstützt einen anderen Satz von Einstellungen und Eigenschaften.

**Topics**
+ [`Scheduling`-Eigenschaften](#Scheduling-v3.properties)
+ [`AwsBatchQueues`](#Scheduling-v3-AwsBatchQueues)
+ [`SlurmQueues`](#Scheduling-v3-SlurmQueues)
+ [`SlurmSettings`](#Scheduling-v3-SlurmSettings)

```
Scheduling:
  Scheduler: slurm
  ScalingStrategy: string    
  SlurmSettings:
    MungeKeySecretArn: string        
    ScaledownIdletime: integer    
    QueueUpdateStrategy: string
    EnableMemoryBasedScheduling: boolean
    CustomSlurmSettings: [dict]
    CustomSlurmSettingsIncludeFile: string
    Database:
      Uri: string
      UserName: string
      PasswordSecretArn: string
      DatabaseName: string    
    ExternalSlurmdbd: boolean
      Host: string
      Port: integer  
    Dns:
      DisableManagedDns: boolean
      HostedZoneId: string
      UseEc2Hostnames: boolean  
  SlurmQueues:
    - Name: string  
      ComputeSettings:
        LocalStorage:
          RootVolume:
            Size: integer
            Encrypted: boolean
            VolumeType: string
            Iops: integer
            Throughput: integer
          EphemeralVolume:
            MountDir: string
      CapacityReservationTarget:
        CapacityReservationId: string
        CapacityReservationResourceGroupArn: string
      CapacityType: string
      AllocationStrategy: string
      JobExclusiveAllocation: boolean
      CustomSlurmSettings: dict
      Tags:
        - Key: string
          Value: string
      HealthChecks:
        Gpu:
          Enabled: boolean
      Networking:
        SubnetIds:
          - string
        AssignPublicIp: boolean
        SecurityGroups:
          - string
        AdditionalSecurityGroups:
          - string
        PlacementGroup:
          Enabled: boolean
          Id: string
          Name: string
        Proxy:
          HttpProxyAddress: string
      ComputeResources:
        - Name: string
          InstanceType: string
          Instances:
            - InstanceType: string
          MinCount: integer
          MaxCount: integer
          DynamicNodePriority: integer
          StaticNodePriority: integer
          SpotPrice: float
          DisableSimultaneousMultithreading: boolean
          SchedulableMemory: integer
          HealthChecks:
            Gpu:
              Enabled: boolean
          Efa:
            Enabled: boolean
            GdrSupport: boolean          
          CapacityReservationTarget:
            CapacityReservationId: string
            CapacityReservationResourceGroupArn: string
          Networking:   
            PlacementGroup:
              Enabled: boolean
              Name: string
          CustomSlurmSettings: dict
          Tags:
            - Key: string
              Value: string
          LaunchTemplateOverrides:
            LaunchTemplateId: string
            Version: string
      CustomActions:
        OnNodeStart:
          Sequence:
            - Script: string
              Args:
                - string
          Script: string
          Args:
            - string
        OnNodeConfigured:
          Sequence:
            - Script: string
              Args:
                - string
          Script: string
          Args:
            - string
      Iam:
        InstanceProfile: string
        InstanceRole: string
        S3Access:
          - BucketName: string
            EnableWriteAccess: boolean
            KeyName: string
        AdditionalIamPolicies:
          - Policy: string
      Image:
        CustomAmi: string
```

```
Scheduling:
  Scheduler: awsbatch
  AwsBatchQueues:
    - Name: string
      CapacityType: string
      Networking:
        SubnetIds:
          - string
        AssignPublicIp: boolean
        SecurityGroups:
          - string
        AdditionalSecurityGroups:
          - string
      ComputeResources:  # this maps to a Batch compute environment (initially we support only 1)
        - Name: string
          InstanceTypes:
            - string
          MinvCpus: integer
          DesiredvCpus: integer
          MaxvCpus: integer
          SpotBidPercentage: float
```

## `Scheduling`-Eigenschaften
<a name="Scheduling-v3.properties"></a>

**`Scheduler`(**Erforderlich**,`String`)**  
Gibt den Typ des verwendeten Schedulers an. Unterstützte Werte sind `slurm` und `awsbatch`.  
[Aktualisierungsrichtlinie: Wenn diese Einstellung geändert wird, ist das Update nicht zulässig.](using-pcluster-update-cluster-v3.md#update-policy-fail-v3)  
`awsbatch`unterstützt nur das `alinux2` Betriebssystem und die `x86_64` Plattform.

**`ScalingStrategy`(**Fakultativ**,`String`)**  
Ermöglicht es Ihnen, auszuwählen, wie dynamische Slurm Knoten skaliert werden sollen. Unterstützte Werte sind`all-or-nothing`, `greedy-all-or-nothing` und `best-effort` Der Standardwert ist`all-or-nothing`.  
[Aktualisierungsrichtlinie: Diese Einstellung kann während eines Updates geändert werden.](using-pcluster-update-cluster-v3.md#update-policy-setting-supported-v3)  
Die Skalierungsstrategie gilt nur für Knoten, die von Slurm wieder aufgenommen werden sollen, nicht für Knoten, die irgendwann schon laufen.
+ `all-or-nothing`Diese Strategie folgt strikt einer all-or-nothing-approach, die darauf abzielt, inaktive Instanzen am Ende des Skalierungsprozesses zu vermeiden. Sie arbeitet auf einer all-or-nothing Basis, was bedeutet, dass sie entweder vollständig oder gar nicht skaliert wird. Beachten Sie, dass aufgrund vorübergehend gestarteter Instances zusätzliche Kosten anfallen können, wenn Jobs mehr als 500 Knoten erfordern oder sich über mehrere Rechenressourcen erstrecken. Diese Strategie hat den niedrigsten Durchsatz unter den drei möglichen Skalierungsstrategien. Die Skalierungszeit hängt von der Anzahl der Jobs ab, die bei der Ausführung des Slurm Resume-Programms eingereicht wurden. Außerdem können Sie nicht weit über das Standardlimit für RunInstances Ressourcenkonten pro Ausführung hinaus skalieren, das standardmäßig bei 1000 Instanzen liegt. Weitere Informationen finden Sie in der [Amazon EC2 EC2-API-Throttling-Dokumentation](https://docs.aws.amazon.com/AWSEC2/latest/APIReference/throttling.html)
+ `greedy-all-or-nothing `Ähnlich wie bei der all-or-nothing Strategie zielt sie darauf ab, inaktive Instances nach der Skalierung zu vermeiden. Diese Strategie ermöglicht eine vorübergehende Überskalierung während des Skalierungsprozesses, um einen höheren Durchsatz als bei der all-or-nothing Methode zu erreichen, hat aber auch dasselbe Skalierungslimit von 1000 Instanzen wie beim RunInstances Ressourcenkontolimit.
+ `best-effort `Bei dieser Strategie wird ein hoher Durchsatz priorisiert, auch wenn dies bedeutet, dass einige Instanzen am Ende des Skalierungsprozesses möglicherweise inaktiv sind. Es wird versucht, so viele Knoten zuzuweisen, wie von den Jobs angefordert werden, aber es besteht die Möglichkeit, dass nicht die gesamte Anfrage erfüllt wird. Im Gegensatz zu den anderen Strategien können beim Best-Effort-Ansatz mehr Instanzen als das RunInstances Standardlimit akkumuliert werden, allerdings auf Kosten ungenutzter Ressourcen während der Ausführung mehrerer Skalierungsprozesse.

Jede Strategie ist so konzipiert, dass sie unterschiedlichen Skalierungsanforderungen gerecht wird, sodass Sie eine auswählen können, die Ihren spezifischen Anforderungen und Einschränkungen entspricht.

## `AwsBatchQueues`
<a name="Scheduling-v3-AwsBatchQueues"></a>

**(Optional)** Die AWS Batch Warteschlangeneinstellungen. Es wird nur eine Warteschlange unterstützt. Wenn auf gesetzt [`Scheduler`](#yaml-Scheduling-Scheduler)ist`awsbatch`, ist dieser Abschnitt erforderlich. Weitere Informationen zum `awsbatch` Scheduler finden Sie unter [Netzwerkkonfiguration](network-configuration-v3-batch.md) und[Verwenden des AWS Batch (`awsbatch`) -Schedulers mit AWS ParallelCluster](awsbatchcli-v3.md).

```
AwsBatchQueues:
  - Name: string
    CapacityType: string
    Networking:
      SubnetIds:
        - string
      AssignPublicIp: boolean
      SecurityGroups:
        - string
      AdditionalSecurityGroups:
        - string
    ComputeResources:  # this maps to a Batch compute environment (initially we support only 1)
      - Name: string
        InstanceTypes:
          - string
        MinvCpus: integer
        DesiredvCpus: integer
        MaxvCpus: integer
        SpotBidPercentage: float
```

[Aktualisierungsrichtlinie: Diese Einstellung kann während eines Updates geändert werden.](using-pcluster-update-cluster-v3.md#update-policy-setting-supported-v3)

### `AwsBatchQueues`-Eigenschaften
<a name="Scheduling-v3-AwsBatchQueues.properties"></a>

**`Name`(**Erforderlich**,`String`)**  
Der Name der AWS Batch Warteschlange.  
[Aktualisierungsrichtlinie: Wenn diese Einstellung geändert wird, ist das Update nicht zulässig.](using-pcluster-update-cluster-v3.md#update-policy-fail-v3)

**`CapacityType`(**Fakultativ**,`String`)**  
Der Typ der Rechenressourcen, die die AWS Batch Warteschlange verwendet. Unterstützte Werte sind`ONDEMAND`, `SPOT` oder`CAPACITY_BLOCK`. Der Standardwert ist `ONDEMAND`.  
Wenn Sie diese Einstellung `CapacityType` auf festlegen`SPOT`, muss Ihr Konto eine `AWSServiceRoleForEC2Spot` dienstbezogene Rolle enthalten. Sie können diese Rolle mit dem folgenden AWS CLI Befehl erstellen.  

```
$ aws iam create-service-linked-role --aws-service-name spot.amazonaws.com
```
Weitere Informationen finden Sie unter [Service-verknüpfte Rolle für Spot-Instance-Anfragen](https://docs.aws.amazon.com/AWSEC2/latest/UserGuide/spot-requests.html#service-linked-roles-spot-instance-requests) im *Amazon Amazon EC2 EC2-Benutzerhandbuch für Linux-Instances*.
[Aktualisierungsrichtlinie: Die Rechenflotte muss gestoppt werden, damit diese Einstellung für ein Update geändert werden kann.](using-pcluster-update-cluster-v3.md#update-policy-compute-fleet-v3)

#### `Networking`
<a name="Scheduling-v3-AwsBatchQueues-Networking"></a>

**(Erforderlich)** Definiert die Netzwerkkonfiguration für die AWS Batch Warteschlange.

```
Networking:
  SubnetIds:
    - string
  AssignPublicIp: boolean
  SecurityGroups:
    - string
  AdditionalSecurityGroups:
    - string
```

##### `Networking`-Eigenschaften
<a name="Scheduling-v3-AwsBatchQueues-Networking.properties"></a>

**`SubnetIds`(**Erforderlich**,`[String]`)**  
Gibt die ID eines vorhandenen Subnetzes an, in dem die AWS Batch Warteschlange bereitgestellt werden soll. Derzeit wird nur ein Subnetz unterstützt.  
[Aktualisierungsrichtlinie: Die Rechenflotte muss gestoppt werden, damit diese Einstellung für ein Update geändert werden kann.](using-pcluster-update-cluster-v3.md#update-policy-compute-fleet-v3)

**`AssignPublicIp`(**Fakultativ**,`String`)**  
Erzeugt oder weist den Knoten in der AWS Batch Warteschlange eine öffentliche IP-Adresse zu. Unterstützte Werte sind `true` und `false`. Die Standardeinstellung hängt von dem Subnetz ab, das Sie angegeben haben.  
[Aktualisierungsrichtlinie: Wenn diese Einstellung geändert wird, ist das Update nicht zulässig.](using-pcluster-update-cluster-v3.md#update-policy-fail-v3)

**`SecurityGroups`(**Optional**,`[String]`)**  
Liste der Sicherheitsgruppen, die die AWS Batch Warteschlange verwendet. Wenn Sie keine Sicherheitsgruppen angeben, AWS ParallelCluster erstellt neue Sicherheitsgruppen.  
[Aktualisierungsrichtlinie: Diese Einstellung kann während eines Updates geändert werden.](using-pcluster-update-cluster-v3.md#update-policy-setting-supported-v3)

**`AdditionalSecurityGroups`(**Optional**,`[String]`)**  
Liste der Sicherheitsgruppen, die die AWS Batch Warteschlange verwendet.  
[Aktualisierungsrichtlinie: Diese Einstellung kann während eines Updates geändert werden.](using-pcluster-update-cluster-v3.md#update-policy-setting-supported-v3)

#### `ComputeResources`
<a name="Scheduling-v3-AwsBatchQueues-ComputeResources"></a>

**(Erforderlich)** Definiert die ComputeResources Konfiguration für die AWS Batch Warteschlange.

```
ComputeResources:  # this maps to a Batch compute environment (initially we support only 1)
  - Name: string
    InstanceTypes:
      - string
    MinvCpus: integer
    DesiredvCpus: integer
    MaxvCpus: integer
    SpotBidPercentage: float
```

##### `ComputeResources`-Eigenschaften
<a name="Scheduling-v3-AwsBatchQueues-ComputeResources.properties"></a>

**`Name`(**Erforderlich**,`String`)**  
Der Name der AWS Batch Warteschlangencomputer-Umgebung.  
[Aktualisierungsrichtlinie: Die Rechenflotte muss gestoppt werden, damit diese Einstellung für ein Update geändert werden kann.](using-pcluster-update-cluster-v3.md#update-policy-compute-fleet-v3)

**`InstanceTypes`(**Erforderlich**,`[String]`)**  
Das Array der Instanztypen für die AWS Batch Rechenumgebung. Alle Instanztypen müssen die `x86_64` Architektur verwenden.  
[Aktualisierungsrichtlinie: Die Rechenflotte muss gestoppt werden, damit diese Einstellung für ein Update geändert werden kann.](using-pcluster-update-cluster-v3.md#update-policy-compute-fleet-v3)

**`MinvCpus`(**Fakultativ**,`Integer`)**  
Die Mindestanzahl VCPUs , die eine AWS Batch Rechenumgebung verwenden kann.  
[Aktualisierungsrichtlinie: Diese Einstellung kann während eines Updates geändert werden.](using-pcluster-update-cluster-v3.md#update-policy-setting-supported-v3)

**`DesiredVcpus`(**Fakultativ**,`Integer`)**  
Die gewünschte Anzahl von VCPUs in der AWS Batch Rechenumgebung. AWS Batch passt diesen Wert zwischen `MinvCpus` und `MaxvCpus` basierend auf der Nachfrage in der Auftragswarteschlange an.  
[Aktualisierungsrichtlinie: Diese Einstellung wird während eines Updates nicht analysiert.](using-pcluster-update-cluster-v3.md#update-policy-setting-ignored-v3)

**`MaxvCpus`(**Fakultativ**,`Integer`)**  
Die maximale Anzahl von VCPUs für die AWS Batch Rechenumgebung. Sie können diesen Wert nicht auf einen Wert setzen, der niedriger ist als`DesiredVcpus`.  
[Aktualisierungsrichtlinie: Diese Einstellung kann während eines Updates nicht verringert werden.](using-pcluster-update-cluster-v3.md#update-policy-no-decrease-v3)

**`SpotBidPercentage`(**Fakultativ**,`Float`)**  
Der maximale Prozentsatz des On-Demand-Preises für den Instance-Typ, den ein Amazon EC2-Spot-Instance-Preis erreichen kann, bevor Instances gestartet werden. Der Standardwert ist `100` (100%). Der unterstützte Bereich ist `1` -`100`.  
[Aktualisierungsrichtlinie: Diese Einstellung kann während eines Updates geändert werden.](using-pcluster-update-cluster-v3.md#update-policy-setting-supported-v3)

## `SlurmQueues`
<a name="Scheduling-v3-SlurmQueues"></a>

**(Optional)** Einstellungen für die Slurm Warteschlange. Wenn auf gesetzt [`Scheduler`](#yaml-Scheduling-Scheduler)ist`slurm`, ist dieser Abschnitt erforderlich.

```
SlurmQueues:
  - Name: string
    ComputeSettings:
      LocalStorage:
        RootVolume:
          Size: integer
          Encrypted: boolean
          VolumeType: string
          Iops: integer
          Throughput: integer
        EphemeralVolume:
          MountDir: string
    CapacityReservationTarget:
      CapacityReservationId: string
      CapacityReservationResourceGroupArn: string
    CapacityType: string
    AllocationStrategy: string
    JobExclusiveAllocation: boolean
    CustomSlurmSettings: dict
    Tags:
      - Key: string
        Value: string
    HealthChecks:
      Gpu:
        Enabled: boolean
    Networking:
      SubnetIds:
        - string
      AssignPublicIp: boolean
      SecurityGroups:
        - string
      AdditionalSecurityGroups:
        - string
      PlacementGroup:
        Enabled: boolean
        Id: string
        Name: string
      Proxy:
        HttpProxyAddress: string
    ComputeResources:
      - Name: string
        InstanceType: string
        Instances:
          - InstanceType: string        
        MinCount: integer
        MaxCount: integer
        DynamicNodePriority: integer
        StaticNodePriority: integer
        SpotPrice: float
        DisableSimultaneousMultithreading: boolean
        SchedulableMemory: integer
        HealthChecks:
          Gpu:
            Enabled: boolean
        Efa:
          Enabled: boolean
          GdrSupport: boolean    
        CapacityReservationTarget:
          CapacityReservationId: string
          CapacityReservationResourceGroupArn: string     
        Networking:   
          PlacementGroup:
            Enabled: boolean
            Name: string
        CustomSlurmSettings: dict
        Tags:
          - Key: string
            Value: string
        LaunchTemplateOverrides:
          LaunchTemplateId: string
          Version: string
    CustomActions:
      OnNodeStart:
        Sequence:
          - Script: string
            Args:
              - string
        Script: string
        Args:
          - string
      OnNodeConfigured:
        Sequence:
          - Script: string
            Args:
              - string        
        Script: string
        Args:
          - string
    Iam:
      InstanceProfile: string
      InstanceRole: string
      S3Access:
        - BucketName: string
          EnableWriteAccess: boolean
          KeyName: string
      AdditionalIamPolicies:
        - Policy: string
    Image:
      CustomAmi: string
```

[Richtlinie aktualisieren: Bei dieser Einstellung für Listenwerte kann während eines Updates ein neuer Wert hinzugefügt werden, oder die Rechenflotte muss gestoppt werden, wenn ein vorhandener Wert entfernt wird.](using-pcluster-update-cluster-v3.md#update-policy-list-values-v3)

### `SlurmQueues`-Eigenschaften
<a name="Scheduling-v3-SlurmQueues.properties"></a>

**`Name`(**Erforderlich**,`String`)**  
Der Name der Slurm Warteschlange.  
Die Clustergröße kann sich während eines Updates ändern. Weitere Informationen finden Sie unter [Größe und Aktualisierung der Clusterkapazität](slurm-workload-manager-v3.md)
[Aktualisierungsrichtlinie: Wenn diese Einstellung geändert wird, ist das Update nicht zulässig.](using-pcluster-update-cluster-v3.md#update-policy-fail-v3)

**`CapacityReservationTarget`**  
`CapacityReservationTarget`wird mit AWS ParallelCluster Version 3.3.0 hinzugefügt.

```
CapacityReservationTarget:
   CapacityReservationId: string
   CapacityReservationResourceGroupArn: string
```
Gibt die On-Demand-Kapazitätsreservierung für die Rechenressourcen der Warteschlange an.    
**`CapacityReservationId`(**Optional**,`String`)**  
Die ID der vorhandenen Kapazitätsreservierung, die für die Rechenressourcen der Warteschlange als Ziel verwendet werden soll. Die ID kann sich auf ein [ODCR](https://docs.aws.amazon.com/AWSEC2/latest/UserGuide/ec2-capacity-reservations.html) oder einen [Kapazitätsblock für ML](https://docs.aws.amazon.com/AWSEC2/latest/UserGuide/ec2-capacity-blocks.html) beziehen.  
Die Reservierung muss dieselbe Plattform verwenden, die die Instanz verwendet. Wenn Ihre Instances beispielsweise ausgeführt werden`rhel8`, muss Ihre Kapazitätsreservierung auf der Red Hat Enterprise Linux-Plattform laufen. Weitere Informationen finden Sie unter [Unterstützte Plattformen](https://docs.aws.amazon.com/AWSEC2/latest/UserGuide/ec2-capacity-reservations.html#capacity-reservations-platforms) im *Amazon-EC2-Benutzerhandbuch für Linux-Instances*.  
Wenn Sie diese Einstellung [`Instances`](#yaml-Scheduling-SlurmQueues-ComputeResources-Instances)in die Cluster-Konfiguration einbeziehen, müssen Sie diese `CapacityReservationId` Einstellung für die Warteschlangenebene aus der Konfiguration ausschließen.
[Richtlinie aktualisieren: Die Rechenflotte muss gestoppt oder QueueUpdateStrategyeingerichtet sein, damit diese Einstellung für ein Update geändert werden kann.](using-pcluster-update-cluster-v3.md#update-policy-queue-update-strategy-v3)  
**`CapacityReservationResourceGroupArn`(**Optional**,`String`)**  
Der Amazon-Ressourcenname (ARN) der Ressourcengruppe, die als serviceverknüpfte Gruppe von Kapazitätsreservierungen für die Rechenressourcen der Warteschlange dient. AWS ParallelCluster identifiziert und verwendet die am besten geeignete Kapazitätsreservierung aus der Ressourcengruppe auf der Grundlage der folgenden Bedingungen:  
+ Wenn in [`SlurmQueues`](#Scheduling-v3-SlurmQueues)/[`Networking`](#yaml-Scheduling-SlurmQueues-ComputeResources-Networking)oder [`SlurmQueues`](#Scheduling-v3-SlurmQueues)//aktiviert `PlacementGroup` ist [`Networking`](#yaml-Scheduling-SlurmQueues-ComputeResources-Networking), wird eine Ressourcengruppe AWS ParallelCluster ausgewählt, die auf den Instanztyp abzielt, und `PlacementGroup` für eine Rechenressource, falls die Rechenressource vorhanden ist. [`ComputeResources`](#Scheduling-v3-SlurmQueues-ComputeResources)

  Das `PlacementGroup` muss auf einen der Instanztypen abzielen, der in definiert ist [`ComputeResources`](#Scheduling-v3-SlurmQueues-ComputeResources).
+ Wenn es in [`SlurmQueues`](#Scheduling-v3-SlurmQueues)/[`Networking`](#yaml-Scheduling-SlurmQueues-ComputeResources-Networking)oder [`SlurmQueues`](#Scheduling-v3-SlurmQueues)//`PlacementGroup`nicht aktiviert ist [`Networking`](#yaml-Scheduling-SlurmQueues-ComputeResources-Networking), AWS ParallelCluster wird eine Ressourcengruppe ausgewählt, die nur auf den Instanztyp einer Rechenressource abzielt, sofern die Rechenressource existiert. [`ComputeResources`](#Scheduling-v3-SlurmQueues-ComputeResources)
Die Ressourcengruppe muss mindestens einen ODCR für jeden Instanztyp haben, der in einer Availability Zone für alle Rechenressourcen und Availability Zones der Warteschlange reserviert ist. Weitere Informationen finden Sie unter [Starten Sie Instances mit On-Demand-Kapazitätsreservierungen (ODCR)](launch-instances-odcr-v3.md).  
Weitere Informationen zu den Konfigurationsanforderungen für mehrere Subnetze finden Sie unter [`Networking`](#Scheduling-v3-SlurmQueues-Networking)/. [`SubnetIds`](#yaml-Scheduling-SlurmQueues-Networking-SubnetIds)  
In AWS ParallelCluster Version 3.4.0 wurden mehrere Availability Zones hinzugefügt.
[Richtlinie aktualisieren: Die Rechenflotte muss gestoppt oder QueueUpdateStrategyeingerichtet sein, damit diese Einstellung für ein Update geändert werden kann.](using-pcluster-update-cluster-v3.md#update-policy-queue-update-strategy-v3)

**`CapacityType`(**Fakultativ**,`String`)**  
Der Typ der Rechenressourcen, die die Slurm Warteschlange verwendet. Unterstützte Werte sind`ONDEMAND`, `SPOT` oder`CAPACITY_BLOCK`. Der Standardwert ist `ONDEMAND`.  
Wenn Sie das `CapacityType` auf setzen`SPOT`, muss Ihr Konto über eine `AWSServiceRoleForEC2Spot` dienstbezogene Rolle verfügen. Sie können den folgenden AWS CLI Befehl verwenden, um diese Rolle zu erstellen.  

```
$ aws iam create-service-linked-role --aws-service-name spot.amazonaws.com
```
Weitere Informationen finden Sie unter [Service-verknüpfte Rolle für Spot-Instance-Anfragen](https://docs.aws.amazon.com/AWSEC2/latest/UserGuide/spot-requests.html#service-linked-roles-spot-instance-requests) im *Amazon Amazon EC2 EC2-Benutzerhandbuch für Linux-Instances*.
[Richtlinie aktualisieren: Die Rechenflotte muss gestoppt oder QueueUpdateStrategyeingerichtet sein, damit diese Einstellung für ein Update geändert werden kann.](using-pcluster-update-cluster-v3.md#update-policy-queue-update-strategy-v3)

**`AllocationStrategy`(**Optional**,) `String`**  
Geben Sie die Zuweisungsstrategie für alle Rechenressourcen an, die in definiert sind [`Instances`](#yaml-Scheduling-SlurmQueues-ComputeResources-Instances).  
Zulässige Werte: `lowest-price` \$1 `capacity-optimized` \$1 `price-capacity-optimized` \$1 `prioritized` \$1 `capacity-optimized-prioritized`       
[\[See the AWS documentation website for more details\]](http://docs.aws.amazon.com/de_de/parallelcluster/latest/ug/Scheduling-v3.html)
Standard: `lowest-price`    
**`lowest-price`**  
+ Wenn Sie verwenden`CapacityType = ONDEMAND`, verwendet Amazon EC2 Fleet den Preis, um die Bestellung zu bestimmen, und startet zuerst die Instances mit dem niedrigsten Preis.
+ Wenn Sie verwenden`CapacityType = SPOT`, startet Amazon EC2 Fleet Instances aus dem Spot-Instance-Pool mit dem niedrigsten Preis, der über verfügbare Kapazität verfügt. Wenn die Kapazität eines Pools knapp wird, bevor er Ihre erforderliche Kapazität erreicht, erfüllt Amazon EC2 Fleet Ihre Anfrage, indem es Instances für Sie startet. Insbesondere startet Amazon EC2 Fleet Instances aus dem Spot-Instance-Pool mit dem niedrigsten Preis, der über verfügbare Kapazität verfügt. Amazon EC2 Fleet kann Spot-Instances aus mehreren verschiedenen Pools starten.
+ Wenn Sie festlegen`CapacityType = CAPACITY_BLOCK`, gibt es keine Zuweisungsstrategien, daher kann der `AllocationStrategy` Parameter nicht konfiguriert werden.  
**`capacity-optimized`**  
+ Wenn Sie festlegen`CapacityType = ONDEMAND`, `capacity-optimized` ist es nicht verfügbar.
+ Wenn Sie diese Option festlegen`CapacityType = SPOT`, startet Amazon EC2 Fleet Instances aus Spot-Instance-Pools mit optimaler Kapazität für die Anzahl der zu startenden Instances.  
**`price-capacity-optimized`**  
+ Wenn Sie festlegen`CapacityType = ONDEMAND`, `capacity-optimized` ist es nicht verfügbar.
+ Wenn Sie diese Option festlegen`CapacityType = SPOT`, identifiziert Amazon EC2 Fleet die Pools mit der höchsten Kapazitätsverfügbarkeit für die Anzahl der Instances, die gestartet werden. Das bedeutet, dass wir Spot Instances aus den Pools anfordern werden, von denen wir glauben, dass die Wahrscheinlichkeit einer kurzfristigen Unterbrechung am geringsten ist. Amazon EC2 Fleet fordert dann Spot-Instances aus den Pools mit dem niedrigsten Preis an.  
**`prioritized`**  
+ Wenn Sie diese Option festlegen`CapacityType = ONDEMAND`, beachtet Amazon EC2 Fleet die Prioritätsreihenfolge, die AWS ParallelCluster für die LaunchTemplate Überschreibungen gilt, wenn mehrere Subnetze angegeben sind. AWS ParallelCluster leitet die Überschreibung `priority` von der Position des Zielsubnetzes ab, `SlurmQueues/Networking/SubnetIds` wobei das erste Subnetz die höchste Priorität erhält. Die Prioritäten werden AWS ParallelCluster in absteigender Reihenfolge von festgelegt`SlurmQueues/Networking/SubnetIds`, SubnetId wobei die erste Subnetz-ID die höchste Priorität und die letzte Subnetz-ID die niedrigste Priorität hat. 
+ Wenn Sie festlegen, ist es nicht `CapacityType = SPOT` verfügbar`prioritized`.  
**`capacity-optimized-prioritized`**  
+ Wenn du es eingestellt hast`CapacityType = ONDEMAND`, `capacity-optimized-prioritized` ist es nicht verfügbar.
+ Wenn Sie diese Option festlegen`CapacityType = SPOT`, optimiert Amazon EC2 Fleet zuerst die Kapazität und wendet dann nach bestem Wissen die Prioritätsreihenfolge an, die den Überschreibungen AWS ParallelCluster zugewiesen wird. LaunchTemplate Die Prioritäten werden AWS ParallelCluster in absteigender Reihenfolge von festgelegt`SlurmQueues/Networking/SubnetIds`, SubnetId wobei die erste SubnetID die höchste Priorität und die letzte SubnetID die niedrigste Priorität hat. Alle Overrides, die auf dasselbe Subnetz abzielen, erhalten denselben Prioritätswert.
[Richtlinie aktualisieren: Die Rechenflotte muss gestoppt oder QueueUpdateStrategyeingerichtet sein, damit diese Einstellung für ein Update geändert werden kann.](using-pcluster-update-cluster-v3.md#update-policy-queue-update-strategy-v3)  
`AllocationStrategy`wird ab AWS ParallelCluster Version 3.3.0 unterstützt.  
**Neu in 3.14.0**: `prioritized` (für On-Demand) und `capacity-optimized-prioritized` (für Spot).

**`JobExclusiveAllocation`(**Fakultativ**,) `String`**  
Wenn auf gesetzt`true`, ist das Slurm `OverSubscribe` Partitionsflag auf gesetzt`EXCLUSIVE`. Bei `OverSubscribe` = `EXCLUSIVE` haben Jobs in der Partition exklusiven Zugriff auf alle zugewiesenen Knoten. Weitere Informationen finden Sie unter [EXCLUSIVE](https://slurm.schedmd.com/slurm.conf.html#OPT_EXCLUSIVE) in der Slurm Dokumentation.  
Zulässige Werte: `true` \$1 `false`  
Standard: `false`  
[Aktualisierungsrichtlinie: Diese Einstellung kann während eines Updates geändert werden.](using-pcluster-update-cluster-v3.md#update-policy-setting-supported-v3)  
`JobExclusiveAllocation`wird ab AWS ParallelCluster Version 3.7.0 unterstützt.

**`CustomSlurmSettings`(**Fakultativ**,`Dict`)**  
Definiert die Konfigurationseinstellungen für die benutzerdefinierte Slurm Partition (Warteschlange).  
Gibt ein Wörterbuch mit Schlüssel-Wert-Paaren für benutzerdefinierte Slurm Konfigurationsparameter an, die für Warteschlangen (Partitionen) gelten.  
Jedes einzelne Schlüssel-Wert-Paar, z. B.`Param1: Value1`, wird separat am Ende der Slurm Partitionskonfigurationszeile im Format hinzugefügt. `Param1=Value1`  
Sie können nur Slurm Konfigurationsparameter angeben, die nicht auf der Sperrliste stehen. `CustomSlurmSettings` Hinweise zu Slurm Konfigurationsparametern auf der Sperrliste finden Sie unter. [Auf der Denim-Liste Slurm Konfigurationsparameter für `CustomSlurmSettings`](slurm-configuration-settings-v3.md#slurm-configuration-denylists-v3)  
AWS ParallelCluster prüft nur, ob ein Parameter auf einer Sperrliste steht. AWS ParallelCluster validiert die Syntax oder Semantik Ihrer benutzerdefinierten Slurm Konfigurationsparameter nicht. Es liegt in Ihrer Verantwortung, Ihre benutzerdefinierten Slurm Konfigurationsparameter zu validieren. Ungültige benutzerdefinierte Slurm Konfigurationsparameter können zu Slurm Daemon-Ausfällen führen, die zu Fehlern bei der Clustererstellung und -aktualisierung führen können.  
Weitere Hinweise zum Angeben von benutzerdefinierten Slurm Konfigurationsparametern mit finden Sie AWS ParallelCluster unter[Slurm Anpassung der Konfiguration](slurm-configuration-settings-v3.md).  
Weitere Informationen zu Slurm Konfigurationsparametern finden Sie in der [Dokumentation unter slurm.conf.](https://slurm.schedmd.com/slurm.conf.html) Slurm  
[Aktualisierungsrichtlinie: Diese Einstellung kann während eines Updates geändert werden.](using-pcluster-update-cluster-v3.md#update-policy-setting-supported-v3)  
`CustomSlurmSettings`wird ab Version 3.6.0 unterstützt. AWS ParallelCluster 

**`Tags`(**Optional**, [Zeichenfolge])**  
Eine Liste von Tag-Schlüssel-Wert-Paaren. [`ComputeResource`](#yaml-Scheduling-SlurmQueues-ComputeResources-Tags)Tags überschreiben doppelte Tags, die in [`Tags` Abschnitt](Tags-v3.md) oder in`SlurmQueues`/angegeben sind. `Tags`    
**`Key`(**Optional**,`String`)**  
Der Tag-Schlüssel.  
**`Value`(**Fakultativ**,`String`)**  
Der Tag-Wert.
[Richtlinie aktualisieren: Die Rechenflotte muss gestoppt oder QueueUpdateStrategyeingerichtet sein, damit diese Einstellung für ein Update geändert werden kann.](using-pcluster-update-cluster-v3.md#update-policy-queue-update-strategy-v3)

**`HealthChecks`(**Fakultativ**)**  
Geben Sie Integritätsprüfungen für Rechenknoten für alle Rechenressourcen in der Warteschlange an.    
`Gpu`(**Fakultativ**)  
Geben Sie GPU-Zustandsprüfungen für alle Rechenressourcen in einer Warteschlange an.  
AWS ParallelCluster unterstützt`HealthChecks`/nicht `Gpu` in Knoten, die `alinux2` ARM-Betriebssysteme verwenden. Diese Plattformen unterstützen den [NVIDIA Data Center GPU Manager (DCGM)](https://docs.nvidia.com/datacenter/dcgm/latest/user-guide/getting-started.html#supported-linux-distributions) nicht.  
Es wird davon abgeraten, GPU-Zustandsprüfungen zu aktivieren, wenn Instance-Typen verwendet werden, deren gesamte GPU-Speichergröße höher als 327680 MiB ist.  
`Enabled`**`Boolean`(**Optional,)  
Gibt an AWS ParallelCluster , ob GPU-Zustandsprüfungen auf Rechenknoten durchgeführt werden. Der Standardwert ist `false`.

**`Gpu`Verhalten bei der Integritätsprüfung**
+ Falls`Gpu`/auf gesetzt `Enabled` ist`true`, werden AWS ParallelCluster GPU-Integritätsprüfungen für Rechenressourcen in der Warteschlange durchgeführt.
+ Bei der `Gpu` Integritätsprüfung werden GPU-Integritätsprüfungen für Rechenressourcen durchgeführt, um zu verhindern, dass Jobs auf Knoten mit einer herabgesetzten GPU gesendet werden.
+ Wenn ein Rechenknoten eine `Gpu` Zustandsprüfung nicht besteht, ändert sich der Status des Rechenknotens auf`DRAIN`. Neue Jobs werden auf diesem Knoten nicht gestartet. Bestehende Jobs werden bis zum Abschluss ausgeführt. Wenn alle laufenden Jobs abgeschlossen sind, wird der Rechenknoten beendet, wenn es sich um einen dynamischen Knoten handelt, und er wird ersetzt, wenn es sich um einen statischen Knoten handelt.
+ Die Dauer der `Gpu` Zustandsprüfung hängt vom ausgewählten Instanztyp, der Anzahl der GPUs Instanzen, dem gesamten GPU-Speicher und der Anzahl der `Gpu` Integritätsprüfungsziele ab (entspricht der Anzahl der Job-GPU-Ziele). Bei einem p4d.24xlarge beträgt die typische Dauer beispielsweise 3 Minuten.
+ Wenn die `Gpu` Integritätsprüfung auf einer Instanz ausgeführt wird, die nicht unterstützt wird, wird sie beendet und der Job wird auf dem Rechenknoten ausgeführt. Wenn eine Instanz beispielsweise keine GPU hat oder, wenn eine Instanz über eine GPU verfügt, es sich aber nicht um eine NVIDIA-GPU handelt, wird die Integritätsprüfung beendet und der Job wird auf dem Rechenknoten ausgeführt. Nur NVIDIA wird GPUs unterstützt.
+ Die `Gpu` Integritätsprüfung verwendet das `dcgmi` Tool, um Integritätsprüfungen an einem Knoten durchzuführen, und umfasst die folgenden Schritte: 

  Wenn die `Gpu` Zustandsprüfung in einem Knoten beginnt:

  1. Es erkennt, ob die `nvidia-fabricmanager` Dienste `nvidia-dcgm` und ausgeführt werden.

  1. Wenn diese Dienste nicht ausgeführt werden, werden sie durch die `Gpu` Integritätsprüfung gestartet.

  1. Es erkennt, ob der Persistenzmodus aktiviert ist.

  1. Wenn der Persistenzmodus nicht aktiviert ist, wird er durch die `Gpu` Integritätsprüfung aktiviert.

  Am Ende der Zustandsprüfung werden diese Dienste und Ressourcen durch die `Gpu` Zustandsprüfung in ihren ursprünglichen Zustand zurückversetzt.
+ Wenn der Job einer bestimmten Gruppe von Knoten zugewiesen ist GPUs, wird die `Gpu` Integritätsprüfung nur für diese bestimmte Gruppe ausgeführt. Andernfalls wird die `Gpu` Integritätsprüfung für alle GPUs Knoten ausgeführt.
+ Wenn ein Rechenknoten zwei oder mehr `Gpu` Integritätsprüfungsanfragen gleichzeitig empfängt, wird nur die erste Zustandsprüfung ausgeführt und die anderen werden übersprungen. Dies ist auch bei Zustandsprüfungen des Zielknotens GPUs der Fall. Sie können in den Protokolldateien nach weiteren Informationen zu dieser Situation suchen.
+ Das Protokoll der Integritätsprüfung für einen bestimmten Rechenknoten ist in der `/var/log/parallelcluster/slurm_health_check.log` Datei verfügbar. Die Datei ist in Amazon CloudWatch in der CloudWatch Cluster-Protokollgruppe verfügbar. Dort finden Sie:
  + Einzelheiten zu der Aktion, die im Rahmen der `Gpu` Integritätsprüfung ausgeführt wurde, einschließlich der Aktivierung und Deaktivierung von Diensten und des Persistenzmodus.
  + Die GPU-Kennung, die serielle ID und die UUID.
  + Die Ausgabe des Integritätschecks.
[Aktualisierungsrichtlinie: Diese Einstellung kann während eines Updates geändert werden.](using-pcluster-update-cluster-v3.md#update-policy-setting-supported-v3)  
`HealthChecks`wird ab AWS ParallelCluster Version 3.6.0 unterstützt.

#### `Networking`
<a name="Scheduling-v3-SlurmQueues-Networking"></a>

**(Erforderlich)** Definiert die Netzwerkkonfiguration für die Slurm Warteschlange.

```
Networking:
  SubnetIds:
    - string
  AssignPublicIp: boolean
  SecurityGroups:
    - string
  AdditionalSecurityGroups:
    - string
  PlacementGroup:
    Enabled: boolean
    Id: string
    Name: string
  Proxy:
    HttpProxyAddress: string
```

[Richtlinie aktualisieren: Die Rechenflotte muss gestoppt oder QueueUpdateStrategyeingerichtet sein, damit diese Einstellung für ein Update geändert werden kann.](using-pcluster-update-cluster-v3.md#update-policy-queue-update-strategy-v3)

##### `Networking`-Eigenschaften
<a name="Scheduling-v3-SlurmQueues-Networking.properties"></a>

**`SubnetIds`(**Erforderlich**,`[String]`)**  
Die Anzahl IDs der vorhandenen Subnetze, in denen Sie die Slurm Warteschlange bereitstellen.  
Wenn Sie Instanztypen in [`SlurmQueues`](#Scheduling-v3-SlurmQueues)/[`ComputeResources`](#Scheduling-v3-SlurmQueues-ComputeResources)/konfigurieren [`InstanceType`](#yaml-Scheduling-SlurmQueues-ComputeResources-InstanceType), können Sie nur ein Subnetz definieren.  
Wenn Sie Instanztypen in [`SlurmQueues`](#Scheduling-v3-SlurmQueues)/[`ComputeResources`](#Scheduling-v3-SlurmQueues-ComputeResources)/konfigurieren [`Instances`](#yaml-Scheduling-SlurmQueues-ComputeResources-Instances), können Sie ein einzelnes Subnetz oder mehrere Subnetze definieren.  
Wenn Sie mehrere Subnetze verwenden, müssen sich alle für eine Warteschlange definierten Subnetze in derselben VPC befinden, wobei sich jedes Subnetz in einer separaten Availability Zone (AZ) befindet.  
Nehmen wir beispielsweise an, Sie definieren Subnetz-1 und Subnetz-2 für Ihre Warteschlange.  
`subnet-1`und `subnet-2` können nicht beide in AZ-1 sein.  
`subnet-1`kann in AZ-1 sein und `subnet-2` kann in AZ-2 sein.  
Wenn Sie nur einen Instance-Typ konfigurieren und mehrere Subnetze verwenden möchten, definieren Sie Ihren Instance-Typ in `Instances` und nicht. `InstanceType`  
Definieren Sie beispielsweise`ComputeResources`/`Instances`/`InstanceType`= `instance.type` statt`ComputeResources`/`InstanceType`=`instance.type`.  
Elastic Fabric Adapter (EFA) wird in verschiedenen Availability Zones nicht unterstützt.
Die Verwendung mehrerer Availability Zones kann zu einer Erhöhung der Speichernetzwerklatenz und zu zusätzlichen Kosten für die Datenübertragung zwischen den einzelnen AZ-Datenbanken führen. Dies könnte beispielsweise der Fall sein, wenn eine Instance auf einen Dateispeicher zugreift, der sich in einer anderen AZ befindet. Weitere Informationen finden Sie unter [Datenübertragung innerhalb derselben AWS-Region](https://aws.amazon.com/ec2/pricing/on-demand/#Data_Transfer_within_the_same_AWS_Region).  

**Cluster-Updates zur Umstellung von der Verwendung eines einzelnen Subnetzes auf mehrere Subnetze:**
+ Angenommen, die Subnetzdefinition eines Clusters ist mit einem einzigen Subnetz und einem FSx für Lustre AWS ParallelCluster verwalteten Dateisystem definiert. Dann können Sie diesen Cluster nicht direkt mit einer aktualisierten Subnetz-ID-Definition aktualisieren. Um das Cluster-Update durchzuführen, müssen Sie zuerst das verwaltete Dateisystem in ein externes Dateisystem ändern. Weitere Informationen finden Sie unter [Konvertiert AWS ParallelCluster verwalteten Speicher in externen Speicher](shared-storage-conversion-v3.md).
+ Angenommen, die Subnetzdefinition eines Clusters ist mit einem einzelnen Subnetz und einem externen Amazon EFS-Dateisystem definiert, falls EFS-Mount-Ziele nicht für alle der AZs mehreren Subnetze existieren, die hinzugefügt werden sollen. Dann können Sie diesen Cluster nicht direkt mit einer aktualisierten Subnetz-ID-Definition aktualisieren. Um den Cluster zu aktualisieren oder einen Cluster zu erstellen, müssen Sie zunächst alle Mount-Ziele für alle der AZs definierten mehreren Subnetze erstellen.

**Availability Zones und Cluster-Kapazitätsreservierungen, definiert in [CapacityReservationResourceGroupArn](#yaml-Scheduling-SlurmQueues-CapacityReservationResourceGroupArn):**
+ Sie können keinen Cluster erstellen, wenn es keine Überschneidung zwischen den Instanztypen und Verfügbarkeitszonen, die von der definierten Ressourcengruppe für die Kapazitätsreservierung abgedeckt werden, und den für die Warteschlange definierten Instanztypen und Verfügbarkeitszonen gibt.
+ Sie können einen Cluster erstellen, wenn es eine teilweise Überschneidung zwischen den Instanztypen und Verfügbarkeitszonen, die von der definierten Ressourcengruppe für die Kapazitätsreservierung abgedeckt werden, und den für die Warteschlange definierten Instanztypen und Verfügbarkeitszonen gibt. AWS ParallelCluster sendet in diesem Fall eine Warnmeldung über die teilweise Überlappung.
+ Weitere Informationen finden Sie unter [Starten Sie Instances mit On-Demand-Kapazitätsreservierungen (ODCR)](launch-instances-odcr-v3.md).
In AWS ParallelCluster Version 3.4.0 wurden mehrere Availability Zones hinzugefügt.
Diese Warnung gilt für alle AWS ParallelCluster 3.x.y-Versionen vor Version 3.3.1. AWS ParallelCluster Version 3.3.1 ist nicht betroffen, wenn dieser Parameter geändert wird.  
Für AWS ParallelCluster 3 Versionen vor Version 3.3.1:  
Wenn Sie diesen Parameter ändern und einen Cluster aktualisieren, wird ein neues FSx für Lustre verwaltetes Dateisystem erstellt und das bestehende für Lustre verwaltete FSx Dateisystem gelöscht, ohne dass die vorhandenen Daten erhalten bleiben. Dies führt zu Datenverlust. Bevor Sie fortfahren, stellen Sie sicher, dass Sie die Daten aus dem vorhandenen FSx for Lustre-Dateisystem sichern, wenn Sie Daten beibehalten möchten. Weitere Informationen finden Sie unter [Arbeiten mit Backups](https://docs.aws.amazon.com/fsx/latest/LustreGuide/using-backups-fsx.html) im *FSx for Lustre-Benutzerhandbuch*.
Wenn ein neuer Subnetzwert hinzugefügt wird, [Aktualisierungsrichtlinie: Diese Einstellung kann während eines Updates geändert werden.](using-pcluster-update-cluster-v3.md#update-policy-setting-supported-v3)  
Wenn ein Subnetzwert entfernt wird, [Richtlinie aktualisieren: Die Rechenflotte muss gestoppt oder QueueUpdateStrategyeingerichtet sein, damit diese Einstellung für ein Update geändert werden kann.](using-pcluster-update-cluster-v3.md#update-policy-queue-update-strategy-v3)

**`AssignPublicIp`(**Fakultativ**,`String`)**  
Erzeugt oder weist den Knoten in der Slurm Warteschlange eine öffentliche IP-Adresse zu. Unterstützte Werte sind `true` und `false`. Das von Ihnen angegebene Subnetz bestimmt den Standardwert. Ein Subnetz mit öffentlicher IPs Standardeinstellung für die Zuweisung öffentlicher IP-Adressen.  
Wenn Sie einen hpc6id Instanztyp p4d oder einen anderen Instanztyp mit mehreren Netzwerkschnittstellen oder einer Netzwerkschnittstellenkarte definieren, müssen Sie [`HeadNode`](HeadNode-v3.md)/[`Networking`](HeadNode-v3.md#HeadNode-v3-Networking)/[`ElasticIp`](HeadNode-v3.md#yaml-HeadNode-Networking-ElasticIp)auf festlegen, um öffentlichen Zugriff `true` zu gewähren. AWS public IPs kann nur Instances zugewiesen werden, die mit einer einzigen Netzwerkschnittstelle gestartet wurden. In diesem Fall empfehlen wir, ein [NAT-Gateway](https://docs.aws.amazon.com/vpc/latest/userguide/vpc-nat-gateway.html) zu verwenden, um öffentlichen Zugriff auf die Cluster-Rechenknoten zu gewähren. Stellen Sie in diesem Fall `AssignPublicIp` auf ein`false`. Weitere Informationen zu IP-Adressen finden Sie unter [Zuweisen einer öffentlichen IPv4 Adresse beim Instance-Start](https://docs.aws.amazon.com/AWSEC2/latest/UserGuide/using-instance-addressing.html#public-ip-addresses) im *Amazon EC2 EC2-Benutzerhandbuch für Linux-Instances*.  
[Aktualisierungsrichtlinie: Wenn diese Einstellung geändert wird, ist das Update nicht zulässig.](using-pcluster-update-cluster-v3.md#update-policy-fail-v3)

**`SecurityGroups`(**Optional**,`[String]`)**  
Eine Liste von Sicherheitsgruppen, die für die Slurm Warteschlange verwendet werden sollen. Wenn keine Sicherheitsgruppen angegeben sind, AWS ParallelCluster erstellt es Sicherheitsgruppen für Sie.  
Stellen Sie sicher, dass die Sicherheitsgruppen für Ihre [SharedStorage](SharedStorage-v3.md)Systeme korrekt konfiguriert sind.  
Diese Warnung gilt für alle 3. *x*. *y* AWS ParallelCluster Versionen vor Version 3.3.0. AWS ParallelCluster Version 3.3.0 ist nicht betroffen, wenn dieser Parameter geändert wird.  
Für AWS ParallelCluster 3 Versionen vor Version 3.3.0:  
Wenn Sie diesen Parameter ändern und einen Cluster aktualisieren, wird ein neues FSx für Lustre verwaltetes Dateisystem erstellt und das bestehende für Lustre verwaltete FSx Dateisystem gelöscht, ohne dass die vorhandenen Daten erhalten bleiben. Dies führt zu Datenverlust. Stellen Sie sicher, dass Sie die Daten aus dem vorhandenen FSx for Lustre-Dateisystem sichern, wenn Sie Daten erhalten möchten. Weitere Informationen finden Sie unter [Arbeiten mit Backups](https://docs.aws.amazon.com/fsx/latest/LustreGuide/using-backups-fsx.html) im *FSx for Lustre-Benutzerhandbuch*.
Wenn Sie [Efa](#yaml-Scheduling-SlurmQueues-ComputeResources-Efa) für Ihre Compute-Instances aktivieren, stellen Sie sicher, dass Ihre EFA-fähigen Instances Mitglieder einer Sicherheitsgruppe sind, die den gesamten eingehenden und ausgehenden Datenverkehr für sich selbst zulässt.
[Aktualisierungsrichtlinie: Diese Einstellung kann während eines Updates geändert werden.](using-pcluster-update-cluster-v3.md#update-policy-setting-supported-v3)

**`AdditionalSecurityGroups`**(`[String]`Optional,)****  
Eine Liste zusätzlicher Sicherheitsgruppen, die für die Slurm Warteschlange verwendet werden sollen.  
[Aktualisierungsrichtlinie: Diese Einstellung kann während eines Updates geändert werden.](using-pcluster-update-cluster-v3.md#update-policy-setting-supported-v3)

**`PlacementGroup`(**Fakultativ**)**  
Gibt die Platzierungsgruppeneinstellungen für die Slurm Warteschlange an.  

```
PlacementGroup:
  Enabled: boolean
  Id: string
  Name: string
```
[Aktualisierungsrichtlinie: Alle Rechenknoten müssen gestoppt werden, damit eine verwaltete Platzierungsgruppe gelöscht werden kann. Die Rechenflotte muss gestoppt oder QueueUpdateStrategyeingerichtet sein, damit diese Einstellung für ein Update geändert werden kann.](using-pcluster-update-cluster-v3.md#update-policy-remove-placement-group-v3)    
**`Enabled`(**Optional**,`Boolean`)**  
Gibt an, ob eine Platzierungsgruppe für die Slurm Warteschlange verwendet wird. Der Standardwert ist `false`.  
[Richtlinie aktualisieren: Die Rechenflotte muss gestoppt oder QueueUpdateStrategyeingerichtet sein, damit diese Einstellung für ein Update geändert werden kann.](using-pcluster-update-cluster-v3.md#update-policy-queue-update-strategy-v3)  
**`Id`(**Fakultativ**,`String`)**  
Die Platzierungsgruppen-ID für eine bestehende Cluster-Platzierungsgruppe, die von der Slurm Warteschlange verwendet wird. Stellen Sie sicher, dass Sie die *Platzierungsgruppen-ID* und *nicht den Namen* angeben.  
[Richtlinie aktualisieren: Die Rechenflotte muss gestoppt oder QueueUpdateStrategyeingerichtet sein, damit diese Einstellung für ein Update geändert werden kann.](using-pcluster-update-cluster-v3.md#update-policy-queue-update-strategy-v3)  
**`Name`(**Fakultativ**,`String`)**  
Der Name der Platzierungsgruppe für eine bestehende Cluster-Platzierungsgruppe, die von der Slurm Warteschlange verwendet wird. Stellen Sie sicher, dass Sie den *Namen* der Platzierungsgruppe und *nicht die ID* angeben.  
[Richtlinie aktualisieren: Die Rechenflotte muss gestoppt oder QueueUpdateStrategyeingerichtet sein, damit diese Einstellung für ein Update geändert werden kann.](using-pcluster-update-cluster-v3.md#update-policy-queue-update-strategy-v3)
+ Wenn`PlacementGroup`/auf gesetzt `Enabled` ist`true`, ohne dass ein `Name` oder `Id` definiert ist, wird jeder Rechenressource ihre eigene verwaltete Platzierungsgruppe zugewiesen, es sei denn, [`ComputeResources`](#Scheduling-v3-SlurmQueues-ComputeResources)/[`Networking`](#yaml-Scheduling-SlurmQueues-ComputeResources-Networking)/[`PlacementGroup`](#yaml-Scheduling-SlurmQueues-ComputeResources-Networking-PlacementGroup)ist so definiert, dass es diese Einstellung überschreibt.
+ Ab AWS ParallelCluster Version 3.3.0 [`Name`](#yaml-Scheduling-SlurmQueues-Networking-PlacementGroup-Name)wurde [`SlurmQueues`](#Scheduling-v3-SlurmQueues)/[`Networking`](#Scheduling-v3-SlurmQueues-Networking)/[`PlacementGroup`](#yaml-Scheduling-SlurmQueues-Networking-PlacementGroup)/als bevorzugte Alternative zu [`SlurmQueues`](#Scheduling-v3-SlurmQueues)//[`Networking`[`PlacementGroup`](#yaml-Scheduling-SlurmQueues-Networking-PlacementGroup)](#Scheduling-v3-SlurmQueues-Networking)/[`Id`](#yaml-Scheduling-SlurmQueues-Networking-PlacementGroup-Id)hinzugefügt.

  [`PlacementGroup`](#yaml-Scheduling-SlurmQueues-Networking-PlacementGroup)/[`Id`](#yaml-Scheduling-SlurmQueues-Networking-PlacementGroup-Id)und [`PlacementGroup`](#yaml-Scheduling-SlurmQueues-Networking-PlacementGroup)/[`Name`](#yaml-Scheduling-SlurmQueues-Networking-PlacementGroup-Name)sind gleichwertig. Sie können beide verwenden.

   Wenn Sie sowohl [`PlacementGroup`](#yaml-Scheduling-SlurmQueues-Networking-PlacementGroup)/als auch [`PlacementGroup`](#yaml-Scheduling-SlurmQueues-Networking-PlacementGroup)/[`Id`](#yaml-Scheduling-SlurmQueues-Networking-PlacementGroup-Id)angeben [`Name`](#yaml-Scheduling-SlurmQueues-Networking-PlacementGroup-Name), AWS ParallelCluster schlägt dies fehl. Sie können nur das eine oder das andere wählen.

  Sie müssen Ihren Cluster nicht aktualisieren, um [`PlacementGroup`](#yaml-Scheduling-SlurmQueues-Networking-PlacementGroup)/verwenden zu können [`Name`](#yaml-Scheduling-SlurmQueues-Networking-PlacementGroup-Name).
+ Wenn Sie eine Kapazitätsblockreservierung verwenden, sollte keine Platzierungsgruppenbeschränkung festgelegt werden, da aufgrund von Platzierungsbeschränkungen außerhalb der Reservierung Fehler zu unzureichenden Kapazitäten auftreten können, selbst wenn die Kapazitätsreservierung über Restkapazität verfügt.

**`Proxy`(**Fakultativ**)**  
Gibt die Proxyeinstellungen für die Slurm Warteschlange an.  

```
Proxy:
  HttpProxyAddress: string
```
[Richtlinie aktualisieren: Die Rechenflotte muss gestoppt oder QueueUpdateStrategyeingerichtet sein, damit diese Einstellung für ein Update geändert werden kann.](using-pcluster-update-cluster-v3.md#update-policy-queue-update-strategy-v3)    
**`HttpProxyAddress`(**Optional**,`String`)**  
Definiert einen HTTP- oder HTTPS-Proxyserver für die Slurm Warteschlange. Normalerweise ist es`https://x.x.x.x:8080`.  
Es gibt keinen Standardwert.  
[Richtlinie aktualisieren: Die Rechenflotte muss gestoppt oder QueueUpdateStrategyeingerichtet sein, damit diese Einstellung für ein Update geändert werden kann.](using-pcluster-update-cluster-v3.md#update-policy-queue-update-strategy-v3)

#### `Image`
<a name="Scheduling-v3-SlurmQueues-Image"></a>

**(Optional)** Gibt das Bild an, das für die Slurm Warteschlange verwendet werden soll. Um dasselbe AMI für alle Knoten zu verwenden, verwenden Sie die [CustomAmi](Image-v3.md#yaml-Image-CustomAmi)Einstellung im [`Image`Abschnitt](Image-v3.md).

```
Image:
  CustomAmi: string
```

[Richtlinie aktualisieren: Die Rechenflotte muss gestoppt oder QueueUpdateStrategyeingerichtet sein, damit diese Einstellung für ein Update geändert werden kann.](using-pcluster-update-cluster-v3.md#update-policy-queue-update-strategy-v3)

##### `Image`Eigenschaften
<a name="Scheduling-v3-SlurmQueues-Image.properties"></a>

**`CustomAmi`(**Fakultativ**,`String`)**  
Das AMI, das für die Slurm Warteschlange anstelle der Standardeinstellung verwendet werden soll AMIs. Sie können den pcluster CLI-Befehl verwenden, um eine Liste der Standardeinstellungen anzuzeigen AMIs.  
Das AMI muss auf demselben Betriebssystem basieren, das vom Hauptknoten verwendet wird.

```
pcluster list-official-images
```
Wenn das benutzerdefinierte AMI zusätzliche Berechtigungen für seinen Start benötigt, müssen Sie diese Berechtigungen zur Head-Node-Richtlinie hinzufügen.  
Wenn einem benutzerdefinierten AMI beispielsweise ein verschlüsselter Snapshot zugeordnet ist, sind die folgenden zusätzlichen Richtlinien in den Richtlinien für den Hauptknoten erforderlich.    
****  

```
{
    "Version":"2012-10-17",		 	 	 
    "Statement": [
        {
            "Effect": "Allow",
            "Action": [
                "kms:DescribeKey",
                "kms:ReEncrypt*",
                "kms:CreateGrant",
                "kms:Decrypt"
            ],
            "Resource": [
                "arn:aws:kms:us-east-1:111122223333:key/<AWS_KMS_KEY_ID>"
            ]
        }
    ]
}
```
Informationen zur Fehlerbehebung bei benutzerdefinierten AMI-Validierungswarnungen finden Sie unter[Behebung von Problemen mit benutzerdefinierten AMIs](troubleshooting-v3-custom-amis.md).  
[Richtlinie aktualisieren: Die Rechenflotte muss gestoppt oder QueueUpdateStrategyeingerichtet sein, damit diese Einstellung für ein Update geändert werden kann.](using-pcluster-update-cluster-v3.md#update-policy-queue-update-strategy-v3)

#### `ComputeResources`
<a name="Scheduling-v3-SlurmQueues-ComputeResources"></a>

**(Erforderlich)** Definiert die `ComputeResources` Konfiguration für die Slurm Warteschlange.

**Anmerkung**  
Die Clustergröße kann sich während eines Updates ändern. Weitere Informationen finden Sie unter [Größe und Aktualisierung der Clusterkapazität](slurm-workload-manager-v3.md).
Neue Rechenressourcen können dem Cluster nur hinzugefügt werden, wenn sie in Subnetzen bereitgestellt werden, die zu CIDR-Blöcken gehören, die bei der Erstellung des Clusters vorhanden waren.

```
ComputeResources:
  - Name: string
    InstanceType: string
    Instances:
      - InstanceType: string    
    MinCount: integer
    MaxCount: integer
    DynamicNodePriority: integer
    StaticNodePriority: integer
    SpotPrice: float
    DisableSimultaneousMultithreading: boolean
    SchedulableMemory: integer
    HealthChecks:
      Gpu:    
        Enabled: boolean
    Efa:
      Enabled: boolean
      GdrSupport: boolean
    CapacityReservationTarget:
      CapacityReservationId: string
      CapacityReservationResourceGroupArn: string
    Networking:   
      PlacementGroup:
        Enabled: boolean
        Name: string
    CustomSlurmSettings: dict   
    Tags:
      - Key: string
        Value: string
    LaunchTemplateOverrides:
      LaunchTemplateId: string
      Version: string
```

[Richtlinie aktualisieren: Bei dieser Einstellung für Listenwerte kann während eines Updates ein neuer Wert hinzugefügt werden, oder die Rechenflotte muss gestoppt werden, wenn ein vorhandener Wert entfernt wird.](using-pcluster-update-cluster-v3.md#update-policy-list-values-v3)

##### `ComputeResources`-Eigenschaften
<a name="Scheduling-v3-SlurmQueues-ComputeResources.properties"></a>

**`Name`(**Erforderlich**,) `String`**  
Der Name der Slurm Warteschlangencomputer-Umgebung. Der Name kann bis zu 25 Zeichen lang sein.  
[Aktualisierungsrichtlinie: Wenn diese Einstellung geändert wird, ist das Update nicht zulässig.](using-pcluster-update-cluster-v3.md#update-policy-fail-v3)

**`InstanceType`(**Erforderlich**,`String`)**  
Der Instanztyp, der in dieser Slurm Rechenressource verwendet wird. Alle Instance-Typen in einem Cluster müssen dieselbe Prozessorarchitektur verwenden. Instanzen können entweder die `x86_64` `arm64` Oder-Architektur verwenden.  
Die Clusterkonfiguration muss entweder [Instanzen [InstanceType](#yaml-Scheduling-SlurmQueues-ComputeResources-InstanceType)](#yaml-Scheduling-SlurmQueues-ComputeResources-Instances)oder definieren. Wenn beide definiert sind, AWS ParallelCluster schlägt dies fehl.  
Wenn Sie definieren`InstanceType`, können Sie nicht mehrere Subnetze definieren. Wenn Sie nur einen Instanztyp konfigurieren und mehrere Subnetze verwenden möchten, definieren Sie Ihren Instanztyp in und `Instances` nicht in. `InstanceType` Weitere Informationen finden Sie unter [`Networking`](#Scheduling-v3-SlurmQueues-Networking)/[`SubnetIds`](#yaml-Scheduling-SlurmQueues-Networking-SubnetIds).  
Wenn Sie einen hpc6id Instance-Typ p4d oder einen anderen Instance-Typ mit mehreren Netzwerkschnittstellen oder einer Netzwerkschnittstellenkarte definieren, müssen Sie die Compute-Instances in einem privaten Subnetz starten, wie unter beschrieben. [AWS ParallelCluster unter Verwendung von zwei Subnetzen](network-configuration-v3-two-subnets.md) AWS public IPs kann nur Instances zugewiesen werden, die mit einer einzigen Netzwerkschnittstelle gestartet werden. Weitere Informationen finden Sie unter [Zuweisen einer öffentlichen IPv4 Adresse beim Instance-Start](https://docs.aws.amazon.com/AWSEC2/latest/UserGuide/using-instance-addressing.html#public-ip-addresses) im *Amazon EC2 EC2-Benutzerhandbuch für Linux-Instances*.  
[Aktualisierungsrichtlinie: Die Rechenflotte muss gestoppt werden, damit diese Einstellung für ein Update geändert werden kann.](using-pcluster-update-cluster-v3.md#update-policy-compute-fleet-v3)

**`Instances`(**Erforderlich**)**  
Gibt die Liste der Instanztypen für eine Rechenressource an. Informationen zur Angabe der Zuweisungsstrategie für die Liste der Instanztypen finden Sie unter [`AllocationStrategy`](#yaml-Scheduling-SlurmQueues-AllocationStrategy).  
Die Clusterkonfiguration muss entweder [`InstanceType`](#yaml-Scheduling-SlurmQueues-ComputeResources-InstanceType)oder definieren [`Instances`](#yaml-Scheduling-SlurmQueues-ComputeResources-Instances). Wenn beide definiert sind, AWS ParallelCluster schlägt dies fehl.  
Weitere Informationen finden Sie unter [Zuweisung mehrerer Instanztypen mit Slurm](slurm-multiple-instance-allocation-v3.md).  

```
`Instances`:
   - `InstanceType`: string
```
Ab AWS ParallelCluster Version 3.7.0 `EnableMemoryBasedScheduling` kann aktiviert werden, wenn Sie mehrere Instanztypen in [Instances](#yaml-Scheduling-SlurmQueues-ComputeResources-Instances) konfigurieren.  
Für die AWS ParallelCluster Versionen 3.2.0 bis 3.6. *x*, `EnableMemoryBasedScheduling` kann nicht aktiviert werden, wenn Sie mehrere Instanztypen in [Instances](#yaml-Scheduling-SlurmQueues-ComputeResources-Instances) konfigurieren.
[Richtlinie aktualisieren: Bei dieser Einstellung für Listenwerte kann während eines Updates ein neuer Wert hinzugefügt werden, oder die Rechenflotte muss gestoppt werden, wenn ein vorhandener Wert entfernt wird.](using-pcluster-update-cluster-v3.md#update-policy-list-values-v3)    
**`InstanceType`(**Erforderlich**,`String`)**  
Der Instanztyp, der in dieser Slurm Rechenressource verwendet werden soll. Alle Instanztypen in einem Cluster müssen dieselbe Prozessorarchitektur verwenden, entweder `x86_64` oder`arm64`.  
Die unter aufgeführten Instanztypen [`Instances`](#yaml-Scheduling-SlurmQueues-ComputeResources-Instances)müssen Folgendes aufweisen:  
+ Dieselbe Anzahl von v oderCPUs, falls [`DisableSimultaneousMultithreading`](#yaml-Scheduling-SlurmQueues-ComputeResources-DisableSimultaneousMultithreading)auf eingestellt`true`, dieselbe Anzahl von Kernen.
+ Dieselbe Anzahl von Beschleunigern derselben Hersteller.
+ EFA wird unterstützt, falls [`Efa`](#yaml-Scheduling-SlurmQueues-ComputeResources-Efa)/auf [`Enabled`](#yaml-Scheduling-SlurmQueues-ComputeResources-Efa-Enabled)gesetzt ist. `true`
Die unter aufgelisteten Instance-Typen [`Instances`](#yaml-Scheduling-SlurmQueues-ComputeResources-Instances)können Folgendes haben:  
+ Unterschiedliche Speichermenge.

  In diesem Fall muss der Mindestspeicher als verbrauchbare Slurm Ressource festgelegt werden.
**Anmerkung**  
[Ab AWS ParallelCluster Version 3.7.0 `EnableMemoryBasedScheduling` kann aktiviert werden, wenn Sie mehrere Instance-Typen in Instances konfigurieren.](#yaml-Scheduling-SlurmQueues-ComputeResources-Instances)  
Für die AWS ParallelCluster Versionen 3.2.0 bis 3.6. *x*, `EnableMemoryBasedScheduling` kann nicht aktiviert werden, wenn Sie mehrere Instanztypen in [Instances](#yaml-Scheduling-SlurmQueues-ComputeResources-Instances) konfigurieren.
+ Verschiedene Netzwerkkarten.

  In diesem Fall wird die Anzahl der für die Rechenressource konfigurierten Netzwerkschnittstellen durch den Instanztyp mit der geringsten Anzahl von Netzwerkkarten definiert.
+ Unterschiedliche Netzwerkbandbreite.
+ Unterschiedliche Größe des Instance-Speichers.
Wenn Sie einen hpc6id Instance-Typ p4d oder einen anderen Instance-Typ mit mehreren Netzwerkschnittstellen oder einer Netzwerkschnittstellenkarte definieren, müssen Sie die Compute-Instances in einem privaten Subnetz starten, wie unter beschrieben. [AWS ParallelCluster unter Verwendung von zwei Subnetzen](network-configuration-v3-two-subnets.md) AWS public IPs kann nur Instances zugewiesen werden, die mit einer einzigen Netzwerkschnittstelle gestartet wurden. Weitere Informationen finden Sie unter [Zuweisen einer öffentlichen IPv4 Adresse beim Instance-Start](https://docs.aws.amazon.com/AWSEC2/latest/UserGuide/using-instance-addressing.html#public-ip-addresses) im *Amazon EC2 EC2-Benutzerhandbuch für Linux-Instances*.  
[Aktualisierungsrichtlinie: Die Rechenflotte muss gestoppt werden, damit diese Einstellung für ein Update geändert werden kann.](using-pcluster-update-cluster-v3.md#update-policy-compute-fleet-v3)
`Instances`wird ab AWS ParallelCluster Version 3.3.0 unterstützt.

**`MinCount`(**Fakultativ**,`Integer`)**  
Die Mindestanzahl von Instanzen, die die Slurm Rechenressource verwendet. Der Standardwert ist 0.  
Die Clustergröße kann sich während eines Updates ändern. Weitere Informationen finden Sie unter [Größe und Aktualisierung der Clusterkapazität](slurm-workload-manager-v3.md)
[Aktualisierungsrichtlinie: Die Rechenflotte muss gestoppt werden, damit diese Einstellung für ein Update geändert werden kann.](using-pcluster-update-cluster-v3.md#update-policy-compute-fleet-v3)

**`MaxCount`(**Optional**,`Integer`)**  
Die maximale Anzahl von Instanzen, die die Slurm Rechenressource verwendet. Der Standardwert ist 10.  
Wenn Sie diese Option verwenden`CapacityType = CAPACITY_BLOCK`, `MaxCount` muss sie gleich oder `MinCount` größer als 0 sein, da alle Instanzen, die Teil der Capacity Block-Reservierung sind, als statische Knoten verwaltet werden.  
Bei der Clustererstellung wartet der Hauptknoten, bis alle statischen Knoten bereit sind, bevor er den Erfolg der Clustererstellung signalisiert. Wenn Sie jedoch die Knoten verwenden`CapacityType = CAPACITY_BLOCK`, die Teil der Rechenressourcen sind, die Kapazitätsblöcken zugeordnet sind, werden sie bei dieser Prüfung nicht berücksichtigt. Der Cluster wird auch dann erstellt, wenn nicht alle konfigurierten Kapazitätsblöcke aktiv sind.  
Die Clustergröße kann sich während eines Updates ändern. Weitere Informationen finden Sie unter [Größe und Aktualisierung der Clusterkapazität](slurm-workload-manager-v3.md)
 

**`DynamicNodePriority`(**Optional**,`Integer`)**  
Die Priorität dynamischer Knoten in einer Queue-Rechenressource. Die Priorität ist dem Slurm [https://slurm.schedmd.com/slurm.conf.html#OPT_Weight](https://slurm.schedmd.com/slurm.conf.html#OPT_Weight)Knotenkonfigurationsparameter für die dynamischen Rechenressourcenknoten zugeordnet. Der Standardwert ist `1000`.  
Slurmpriorisiert zuerst Knoten mit den niedrigsten `Weight` Werten.  
Die Verwendung vieler verschiedener `Weight` Werte in einer Slurm Partition (Warteschlange) kann die Geschwindigkeit der Jobplanung in der Warteschlange verlangsamen.  
In AWS ParallelCluster Versionen vor Version 3.7.0 wurde sowohl statischen als auch dynamischen Knoten dieselbe Standardgewichtung von `1` zugewiesen. In diesem Fall Slurm könnte aufgrund des Benennungsschemas für statische und dynamische Knoten im Leerlauf dynamische Knoten Vorrang vor inaktiven statischen Knoten eingeräumt werden. Wenn alles andere gleich ist, werden Knoten Slurm alphabetisch nach Namen sortiert.
`DynamicNodePriority`wurde in AWS ParallelCluster Version 3.7.0 hinzugefügt.
[Aktualisierungsrichtlinie: Diese Einstellung kann während eines Updates geändert werden.](using-pcluster-update-cluster-v3.md#update-policy-setting-supported-v3)

**`StaticNodePriority`(**Fakultativ**,`Integer`)**  
Die Priorität statischer Knoten in einer Queue-Rechenressource. Die Priorität ist dem Slurm [https://slurm.schedmd.com/slurm.conf.html#OPT_Weight](https://slurm.schedmd.com/slurm.conf.html#OPT_Weight)Knotenkonfigurationsparameter für die statischen Rechenressourcenknoten zugeordnet. Der Standardwert ist `1`.  
Slurmpriorisiert zuerst Knoten mit den niedrigsten `Weight` Werten.  
Die Verwendung vieler verschiedener `Weight` Werte in einer Slurm Partition (Warteschlange) kann die Geschwindigkeit der Jobplanung in der Warteschlange verlangsamen.
`StaticNodePriority`wurde in AWS ParallelCluster Version 3.7.0 hinzugefügt.
[Aktualisierungsrichtlinie: Diese Einstellung kann während eines Updates geändert werden.](using-pcluster-update-cluster-v3.md#update-policy-setting-supported-v3)

**`SpotPrice`(**Fakultativ**,`Float`)**  
Der Höchstpreis, der für eine Amazon EC2-Spot-Instance bezahlt wurde, bevor Instances gestartet wurden. Der Standardwert ist der On-Demand-Preis.  
[Richtlinie aktualisieren: Die Rechenflotte muss gestoppt oder QueueUpdateStrategyeingerichtet sein, damit diese Einstellung für ein Update geändert werden kann.](using-pcluster-update-cluster-v3.md#update-policy-queue-update-strategy-v3)

**`DisableSimultaneousMultithreading`(**Optional**,`Boolean`)**  
Wenn `true` Multithreading auf den Knoten in der Slurm Warteschlange deaktiviert ist. Der Standardwert ist `false`.  
Nicht alle Instance-Typen können Multithreading deaktivieren. Eine Liste der Instance-Typen, die die Deaktivierung von Multithreading unterstützen, finden Sie im *Amazon EC2 EC2-Benutzerhandbuch* unter [CPU-Kerne und Threads für jeden CPU-Kern pro Instance-Typ](https://docs.aws.amazon.com/AWSEC2/latest/UserGuide/instance-optimize-cpu.html#cpu-options-supported-instances-values).   
[Aktualisierungsrichtlinie: Die Rechenflotte muss gestoppt werden, damit diese Einstellung für ein Update geändert werden kann.](using-pcluster-update-cluster-v3.md#update-policy-compute-fleet-v3)

**`SchedulableMemory`**(Optional,)** `Integer`**  
Die Speichermenge in MiB, die im Slurm Parameter `RealMemory` für die Rechenknoten einer Rechenressource konfiguriert ist. Dieser Wert ist die Obergrenze für den Knotenspeicher, der für Jobs verfügbar ist, wenn [`SlurmSettings`](#Scheduling-v3-SlurmSettings)/aktiviert [`EnableMemoryBasedScheduling`](#yaml-Scheduling-SlurmSettings-EnableMemoryBasedScheduling)ist. Der Standardwert ist 95 Prozent des Speichers, der in [Amazon EC2 EC2-Instanztypen aufgeführt und von der Amazon EC2](https://aws.amazon.com/ec2/instance-types) EC2-API zurückgegeben wird. [DescribeInstanceTypes](https://docs.aws.amazon.com/AWSEC2/latest/APIReference/API_DescribeInstanceTypes.html) Achten Sie darauf, Werte, die in GiB angegeben sind, in MiB umzurechnen.  
Unterstützte Werte: `1-EC2Memory`  
`EC2Memory`ist der Speicher (in MiB), der in [Amazon EC2 EC2-Instanztypen aufgeführt und von der Amazon EC2](https://aws.amazon.com/ec2/instance-types) EC2-API zurückgegeben wird. [DescribeInstanceTypes](https://docs.aws.amazon.com/AWSEC2/latest/APIReference/API_DescribeInstanceTypes.html) Achten Sie darauf, Werte, die in GiB angegeben sind, in MiB umzurechnen.  
Diese Option ist am relevantesten, wenn [`SlurmSettings`](#Scheduling-v3-SlurmSettings)/aktiviert [`EnableMemoryBasedScheduling`](#yaml-Scheduling-SlurmSettings-EnableMemoryBasedScheduling)ist. Weitere Informationen finden Sie unter [Slurm speicherbasierte Terminplanung](slurm-mem-based-scheduling-v3.md).  
`SchedulableMemory`wird ab AWS ParallelCluster Version 3.2.0 unterstützt.  
Ab Version 3.2.0 werden `RealMemory` für Slurm Rechenknoten standardmäßig 95 Prozent des Speichers AWS ParallelCluster konfiguriert, der von der Amazon EC2 EC2-API zurückgegeben wird. `DescribeInstanceTypes` Diese Konfiguration ist unabhängig vom Wert von. `EnableMemoryBasedScheduling`
[Richtlinie aktualisieren: Die Rechenflotte muss gestoppt oder QueueUpdateStrategyeingerichtet sein, damit diese Einstellung für ein Update geändert werden kann.](using-pcluster-update-cluster-v3.md#update-policy-queue-update-strategy-v3)

**`HealthChecks`(**Fakultativ**)**  
Geben Sie Integritätsprüfungen für eine Rechenressource an.    
`Gpu`(**Fakultativ**)  
Geben Sie GPU-Zustandsprüfungen für eine Rechenressource an.    
`Enabled`(**Fakultativ**,`Boolean`)  
Gibt an AWS ParallelCluster , ob GPU-Zustandsprüfungen bei der Berechnung einer Ressource in einer Warteschlange durchgeführt werden. Der Standardwert ist `false`.  
AWS ParallelCluster unterstützt`HealthChecks`/nicht `Gpu` in Knoten, die `alinux2` ARM-Betriebssysteme verwenden. Diese Plattformen unterstützen den [NVIDIA Data Center GPU Manager (DCGM)](https://docs.nvidia.com/datacenter/dcgm/latest/user-guide/getting-started.html#supported-linux-distributions) nicht.

**`Gpu`Verhalten bei der Gesundheitsprüfung**
+ Wenn`Gpu`/auf gesetzt `Enabled` ist`true`, AWS ParallelCluster werden GPU-Integritätsprüfungen für eine Rechenressource durchgeführt.
+ Die `Gpu` Zustandsprüfung führt Integritätsprüfungen für eine Rechenressource durch, um zu verhindern, dass Jobs auf Knoten mit einer herabgesetzten GPU gesendet werden.
+ Wenn ein Rechenknoten eine `Gpu` Zustandsprüfung nicht besteht, ändert sich der Status des Rechenknotens auf`DRAIN`. Neue Jobs werden auf diesem Knoten nicht gestartet. Bestehende Jobs werden bis zum Abschluss ausgeführt. Wenn alle laufenden Jobs abgeschlossen sind, wird der Rechenknoten beendet, wenn es sich um einen dynamischen Knoten handelt, und er wird ersetzt, wenn es sich um einen statischen Knoten handelt.
+ Die Dauer der `Gpu` Integritätsprüfung hängt vom ausgewählten Instanztyp, der Anzahl der Instanzziele GPUs in der Instanz und der Anzahl der `Gpu` Integritätsprüfungsziele ab (entspricht der Anzahl der Job-GPU-Ziele). Bei einer Instanz mit 8 GPUs beträgt die typische Dauer weniger als 3 Minuten.
+ Wenn die `Gpu` Integritätsprüfung auf einer Instanz ausgeführt wird, die nicht unterstützt wird, wird sie beendet und der Job wird auf dem Rechenknoten ausgeführt. Wenn eine Instanz beispielsweise keine GPU hat oder, wenn eine Instanz über eine GPU verfügt, es sich aber nicht um eine NVIDIA-GPU handelt, wird die Integritätsprüfung beendet und der Job wird auf dem Rechenknoten ausgeführt. Nur NVIDIA wird GPUs unterstützt.
+ Die `Gpu` Integritätsprüfung verwendet das `dcgmi` Tool, um Integritätsprüfungen an einem Knoten durchzuführen, und umfasst die folgenden Schritte: 

  Wenn die `Gpu` Zustandsprüfung in einem Knoten beginnt:

  1. Es erkennt, ob die `nvidia-fabricmanager` Dienste `nvidia-dcgm` und ausgeführt werden.

  1. Wenn diese Dienste nicht ausgeführt werden, werden sie durch die `Gpu` Integritätsprüfung gestartet.

  1. Es erkennt, ob der Persistenzmodus aktiviert ist.

  1. Wenn der Persistenzmodus nicht aktiviert ist, wird er durch die `Gpu` Integritätsprüfung aktiviert.

  Am Ende der Zustandsprüfung werden diese Dienste und Ressourcen durch die `Gpu` Zustandsprüfung in ihren ursprünglichen Zustand zurückversetzt.
+ Wenn der Job einer bestimmten Gruppe von Knoten zugewiesen ist GPUs, wird die `Gpu` Integritätsprüfung nur für diese bestimmte Gruppe ausgeführt. Andernfalls wird die `Gpu` Integritätsprüfung für alle GPUs Knoten ausgeführt.
+ Wenn ein Rechenknoten zwei oder mehr `Gpu` Integritätsprüfungsanfragen gleichzeitig empfängt, wird nur die erste Zustandsprüfung ausgeführt und die anderen werden übersprungen. Dies ist auch bei Zustandsprüfungen der Fall, die auf den Knoten GPUs abzielen. Sie können in den Protokolldateien nach weiteren Informationen zu dieser Situation suchen.
+ Das Protokoll der Integritätsprüfung für einen bestimmten Rechenknoten ist in der `/var/log/parallelcluster/slurm_health_check.log` Datei verfügbar. Diese Datei ist in Amazon CloudWatch in der CloudWatch Cluster-Protokollgruppe verfügbar. Dort finden Sie:
  + Einzelheiten zu der Aktion, die durch die `Gpu` Zustandsprüfung ausgeführt wurde, einschließlich der Aktivierung und Deaktivierung von Diensten und des Persistenzmodus.
  + Die GPU-Kennung, die serielle ID und die UUID.
  + Die Ausgabe des Integritätschecks.
[Aktualisierungsrichtlinie: Diese Einstellung kann während eines Updates geändert werden.](using-pcluster-update-cluster-v3.md#update-policy-setting-supported-v3)  
`HealthChecks`wird ab AWS ParallelCluster Version 3.6.0 unterstützt.

**`Efa`(**Fakultativ)****  
Gibt die Elastic Fabric Adapter (EFA) -Einstellungen für die Knoten in der Slurm Warteschlange an.  

```
Efa:
  Enabled: boolean
  GdrSupport: boolean
```
[Richtlinie aktualisieren: Die Rechenflotte muss gestoppt oder QueueUpdateStrategyeingerichtet sein, damit diese Einstellung für ein Update geändert werden kann.](using-pcluster-update-cluster-v3.md#update-policy-queue-update-strategy-v3)    
**`Enabled`(**Optional**,`Boolean`)**  
Gibt an, dass der Elastic Fabric Adapter (EFA) aktiviert ist. Eine Liste der Amazon EC2 EC2-Instances, die EFA unterstützen, finden Sie unter [Unterstützte Instance-Typen](https://docs.aws.amazon.com/AWSEC2/latest/UserGuide/efa.html#efa-instance-types) im *Amazon EC2 EC2-Benutzerhandbuch für* Linux-Instances. Weitere Informationen finden Sie unter [Elastic Fabric Adapter](efa-v3.md). Wir empfehlen die Verwendung eines Clusters [`SlurmQueues`](#Scheduling-v3-SlurmQueues)/[`Networking`](#Scheduling-v3-SlurmQueues-Networking)/, um die Latenzen zwischen [`PlacementGroup`](#yaml-Scheduling-SlurmQueues-Networking-PlacementGroup)den Instances zu minimieren.  
Der Standardwert ist `false`.  
Elastic Fabric Adapter (EFA) wird in verschiedenen Availability Zones nicht unterstützt. Weitere Informationen finden Sie unter [SubnetIds](#yaml-Scheduling-SlurmQueues-Networking-SubnetIds).
Wenn Sie eine benutzerdefinierte Sicherheitsgruppe in definieren [SecurityGroups](#yaml-Scheduling-SlurmQueues-Networking-SecurityGroups), stellen Sie sicher, dass Ihre EFA-fähigen Instances Mitglieder einer Sicherheitsgruppe sind, die den gesamten eingehenden und ausgehenden Datenverkehr für sich selbst zulässt.
[Richtlinie aktualisieren: Die Rechenflotte muss gestoppt oder QueueUpdateStrategyeingerichtet sein, damit diese Einstellung für ein Update geändert werden kann.](using-pcluster-update-cluster-v3.md#update-policy-queue-update-strategy-v3)  
**`GdrSupport`**(Optional,)** `Boolean`**  
**(Optional)** Ab AWS ParallelCluster Version 3.0.2 hat diese Einstellung keine Auswirkung. Die Unterstützung des Elastic Fabric Adapter (EFA) für GPUDirect RDMA (Remote Direct Memory Access) ist immer aktiviert, wenn sie vom Instance-Typ für die Slurm Rechenressource und das Betriebssystem unterstützt wird.  
[Richtlinie aktualisieren: Die Rechenflotte muss gestoppt oder QueueUpdateStrategyeingerichtet sein, damit diese Einstellung für ein Update geändert werden kann.](using-pcluster-update-cluster-v3.md#update-policy-queue-update-strategy-v3)

**`CapacityReservationTarget`**  

```
CapacityReservationTarget:
   CapacityReservationId: string
   CapacityReservationResourceGroupArn: string
```
Gibt die On-Demand-Kapazitätsreservierung an, die für die Rechenressource verwendet werden soll.    
**`CapacityReservationId`(**Fakultativ**,`String`)**  
Die ID der vorhandenen Kapazitätsreservierung, die für die Rechenressourcen der Warteschlange als Ziel verwendet werden soll. Die ID kann sich auf ein [ODCR](https://docs.aws.amazon.com/AWSEC2/latest/UserGuide/ec2-capacity-reservations.html) oder einen [Kapazitätsblock für ML](https://docs.aws.amazon.com/AWSEC2/latest/UserGuide/ec2-capacity-blocks.html) beziehen.  
Wenn dieser Parameter auf Rechenressourcenebene angegeben wird, InstanceType ist er optional und wird automatisch aus der Reservierung abgerufen.  
**`CapacityReservationResourceGroupArn`(**Optional**,`String`)**  
Gibt den Amazon-Ressourcennamen (ARN) der Ressourcengruppe an, die als serviceverknüpfte Gruppe von Kapazitätsreservierungen für die Rechenressource dient. AWS ParallelCluster identifiziert und verwendet die am besten geeignete Kapazitätsreservierung aus der Gruppe. Die Ressourcengruppe muss mindestens ein ODCR für jeden Instanztyp haben, der für die Rechenressource aufgeführt ist. Weitere Informationen finden Sie unter [Starten Sie Instances mit On-Demand-Kapazitätsreservierungen (ODCR)](launch-instances-odcr-v3.md).  
+ Wenn die Option in [`SlurmQueues`](#Scheduling-v3-SlurmQueues)/[`Networking`](#yaml-Scheduling-SlurmQueues-ComputeResources-Networking)oder [`SlurmQueues`](#Scheduling-v3-SlurmQueues)//aktiviert `PlacementGroup` ist [`Networking`](#yaml-Scheduling-SlurmQueues-ComputeResources-Networking), wird eine Ressourcengruppe AWS ParallelCluster ausgewählt, die auf den Instanztyp abzielt, und `PlacementGroup` für eine Rechenressource, falls diese existiert. [`ComputeResources`](#Scheduling-v3-SlurmQueues-ComputeResources)

  Sie `PlacementGroup` muss auf einen der in definierten Instanztypen abzielen [`ComputeResources`](#Scheduling-v3-SlurmQueues-ComputeResources).
+ Wenn sie in [`SlurmQueues`](#Scheduling-v3-SlurmQueues)/[`Networking`](#yaml-Scheduling-SlurmQueues-ComputeResources-Networking)oder [`SlurmQueues`[`ComputeResources`](#Scheduling-v3-SlurmQueues-ComputeResources)](#Scheduling-v3-SlurmQueues)/`PlacementGroup`nicht aktiviert ist [`Networking`](#yaml-Scheduling-SlurmQueues-ComputeResources-Networking), AWS ParallelCluster wird eine Ressourcengruppe ausgewählt, die nur auf den Instanztyp einer Rechenressource abzielt, sofern diese existiert.
[Richtlinie aktualisieren: Die Rechenflotte muss gestoppt oder QueueUpdateStrategyeingerichtet sein, damit diese Einstellung für ein Update geändert werden kann.](using-pcluster-update-cluster-v3.md#update-policy-queue-update-strategy-v3)  
`CapacityReservationTarget`wird mit AWS ParallelCluster Version 3.3.0 hinzugefügt.

**`Networking`**  

```
Networking:   
  PlacementGroup:
    Enabled: boolean
    Name: string
```
[Aktualisierungsrichtlinie: Alle Rechenknoten müssen gestoppt werden, damit eine verwaltete Platzierungsgruppe gelöscht werden kann. Die Rechenflotte muss gestoppt oder QueueUpdateStrategyeingerichtet sein, damit diese Einstellung für ein Update geändert werden kann.](using-pcluster-update-cluster-v3.md#update-policy-remove-placement-group-v3)    
**`PlacementGroup`(**Fakultativ)****  
Gibt die Platzierungsgruppeneinstellungen für die Rechenressource an.    
**`Enabled`(**Optional**,`Boolean`)**  
Gibt an, ob eine Platzierungsgruppe für die Rechenressource verwendet wird.  
+ Wenn dieser Wert auf `true` gesetzt ist und kein `Name` definierter Wert angegeben ist, wird dieser Rechenressource unabhängig von der [`PlacementGroup`](#yaml-Scheduling-SlurmQueues-Networking-PlacementGroup)Einstellung [`SlurmQueues`](#Scheduling-v3-SlurmQueues)/[`Networking`](#Scheduling-v3-SlurmQueues-Networking)/eine eigene verwaltete Platzierungsgruppe zugewiesen.
+ Wenn dieser Wert auf `true` gesetzt ist und ein `Name` Wert definiert ist, wird dieser Rechenressource unabhängig von den`SlurmQueues`/`Networking`/`PlacementGroup`-Einstellungen die benannte Platzierungsgruppe zugewiesen.
[Richtlinie aktualisieren: Die Rechenflotte muss gestoppt oder QueueUpdateStrategyeingerichtet sein, damit diese Einstellung für ein Update geändert werden kann.](using-pcluster-update-cluster-v3.md#update-policy-queue-update-strategy-v3)  
**`Name`(**Optional**,`String`)**  
Der Name der Platzierungsgruppe für eine bestehende Cluster-Platzierungsgruppe, die für die Rechenressource verwendet wird.  
[Richtlinie aktualisieren: Die Rechenflotte muss gestoppt oder QueueUpdateStrategyeingerichtet sein, damit diese Einstellung für ein Update geändert werden kann.](using-pcluster-update-cluster-v3.md#update-policy-queue-update-strategy-v3)
+ Wenn `Enabled` sowohl`PlacementGroup`/als auch `Name` nicht gesetzt sind, werden für ihre jeweiligen Werte standardmäßig die [`PlacementGroup`](#yaml-Scheduling-SlurmQueues-Networking-PlacementGroup)Einstellungen [`SlurmQueues`](#Scheduling-v3-SlurmQueues)/[`Networking`](#Scheduling-v3-SlurmQueues-Networking)/verwendet.
+ Wenn Sie eine Kapazitätsblockreservierung verwenden, sollte keine Platzierungsgruppenbeschränkung festgelegt werden, da aufgrund von Platzierungsbeschränkungen außerhalb der Reservierung Fehler zu unzureichenden Kapazitäten auftreten können, selbst wenn die Kapazitätsreservierung über Restkapazität verfügt.
+ `ComputeResources`/`Networking`/`PlacementGroup`wurde mit AWS ParallelCluster Version 3.3.0 hinzugefügt.

**`CustomSlurmSettings`(**Fakultativ**,`Dict`)**  
**(Optional)** Definiert die Konfigurationseinstellungen für den benutzerdefinierten Slurm Knoten (Rechenressource).  
Gibt ein Wörterbuch mit Schlüssel-Wert-Paaren für benutzerdefinierte Slurm Konfigurationsparameter an, die für Slurm Knoten (Rechenressourcen) gelten.  
Jedes einzelne Schlüssel-Wert-Paar, z. B.`Param1: Value1`, wird separat am Ende der Slurm Knotenkonfigurationszeile im Format hinzugefügt. `Param1=Value1`  
Sie können nur Slurm Konfigurationsparameter angeben, die nicht auf der Sperrliste stehen. `CustomSlurmSettings` Hinweise zu Slurm Konfigurationsparametern auf der Sperrliste finden Sie unter. [Auf der Denim-Liste Slurm Konfigurationsparameter für `CustomSlurmSettings`](slurm-configuration-settings-v3.md#slurm-configuration-denylists-v3)  
AWS ParallelCluster prüft nur, ob ein Parameter auf einer Sperrliste steht. AWS ParallelCluster validiert die Syntax oder Semantik Ihrer benutzerdefinierten Slurm Konfigurationsparameter nicht. Es liegt in Ihrer Verantwortung, Ihre benutzerdefinierten Slurm Konfigurationsparameter zu validieren. Ungültige benutzerdefinierte Slurm Konfigurationsparameter können zu Slurm Daemon-Ausfällen führen, die zu Fehlern bei der Clustererstellung und -aktualisierung führen können.  
Weitere Hinweise zum Angeben von benutzerdefinierten Slurm Konfigurationsparametern mit finden Sie AWS ParallelCluster unter[Slurm Anpassung der Konfiguration](slurm-configuration-settings-v3.md).  
Weitere Informationen zu Slurm Konfigurationsparametern finden Sie in der [Dokumentation unter slurm.conf.](https://slurm.schedmd.com/slurm.conf.html) Slurm  
[Aktualisierungsrichtlinie: Diese Einstellung kann während eines Updates geändert werden.](using-pcluster-update-cluster-v3.md#update-policy-setting-supported-v3)  
`CustomSlurmSettings`wird ab Version 3.6.0 unterstützt. AWS ParallelCluster 

**`Tags`(**Optional**, [Zeichenfolge])**  
Eine Liste von Tag-Schlüssel-Wert-Paaren. `ComputeResource`Tags überschreiben doppelte Tags, die in [`Tags` Abschnitt](Tags-v3.md) oder [`SlurmQueues`](#yaml-Scheduling-SlurmQueues-Tags)/angegeben sind. `Tags`    
**`Key`(**Optional**,`String`)**  
Der Tag-Schlüssel.  
**`Value`(**Fakultativ**,`String`)**  
Der Tag-Wert.
[Richtlinie aktualisieren: Die Rechenflotte muss gestoppt oder QueueUpdateStrategyeingerichtet sein, damit diese Einstellung für ein Update geändert werden kann.](using-pcluster-update-cluster-v3.md#update-policy-queue-update-strategy-v3)

**`LaunchTemplateOverrides`(**Fakultativ**)**  
`LaunchTemplateOverrides`wird mit AWS ParallelCluster Version 3.15.0 hinzugefügt.
Gibt eine Startvorlage an, um die Standard-Startvorlage zu überschreiben, die für die AWS ParallelCluster Rechenressource erstellt wird. Die Startvorlage sollte nur Überschreibungen für Netzwerkschnittstellen enthalten. AWS ParallelCluster validiert die Startvorlage und verhindert, dass andere Parameter überschrieben werden. Weitere Informationen zur Verwendung dieser Überschreibung finden Sie unter. [Passen Sie die Netzwerkschnittstellen für Rechenknoten mit Überschreibungen für Startvorlagen an](tutorial-network-customization-v3.md)  

```
LaunchTemplateOverrides:
  LaunchTemplateId: string
  Version: string
```  
**`LaunchTemplateId`(**Erforderlich**,`String`)**  
Die ID der Startvorlage.  
[Richtlinie aktualisieren: Die Rechenflotte muss gestoppt oder QueueUpdateStrategyeingerichtet sein, damit diese Einstellung für ein Update geändert werden kann.](using-pcluster-update-cluster-v3.md#update-policy-queue-update-strategy-v3)  
**`Version`(**Erforderlich**,`String`)**  
Die Versionsnummer der Startvorlage.  
[Richtlinie aktualisieren: Die Rechenflotte muss gestoppt oder QueueUpdateStrategyeingerichtet sein, damit diese Einstellung für ein Update geändert werden kann.](using-pcluster-update-cluster-v3.md#update-policy-queue-update-strategy-v3)

#### `ComputeSettings`
<a name="Scheduling-v3-SlurmQueues-ComputeSettings"></a>

**(Erforderlich)** Definiert die `ComputeSettings` Konfiguration für die Slurm Warteschlange.

##### `ComputeSettings`-Eigenschaften
<a name="Scheduling-v3-SlurmQueues-ComputeSettings.properties"></a>

Gibt die Eigenschaften `ComputeSettings` der Knoten in der Slurm Warteschlange an.

```
ComputeSettings:
  LocalStorage:
    RootVolume:
      Size: integer
      Encrypted: boolean
      VolumeType: string
      Iops: integer
      Throughput: integer
     EphemeralVolume:
      MountDir: string
```

[Richtlinie aktualisieren: Die Rechenflotte muss gestoppt oder QueueUpdateStrategyeingerichtet sein, damit diese Einstellung für ein Update geändert werden kann.](using-pcluster-update-cluster-v3.md#update-policy-queue-update-strategy-v3)

**`LocalStorage`(**Fakultativ**)**  
Gibt die Eigenschaften `LocalStorage` der Knoten in der Slurm Warteschlange an.  

```
LocalStorage:
  RootVolume:
    Size: integer
    Encrypted: boolean
    VolumeType: string
    Iops: integer
    Throughput: integer
  EphemeralVolume:
    MountDir: string
```
[Richtlinie aktualisieren: Die Rechenflotte muss gestoppt oder QueueUpdateStrategyeingerichtet sein, damit diese Einstellung für ein Update geändert werden kann.](using-pcluster-update-cluster-v3.md#update-policy-queue-update-strategy-v3)    
**`RootVolume`(**Fakultativ**)**  
Gibt die Details des Root-Volumes der Knoten in der Slurm Warteschlange an.  

```
RootVolume:
  Size: integer
  Encrypted: boolean
  VolumeType: string
  Iops: integer
  Throughput: integer
```
[Richtlinie aktualisieren: Die Rechenflotte muss gestoppt oder QueueUpdateStrategyeingerichtet sein, damit diese Einstellung für ein Update geändert werden kann.](using-pcluster-update-cluster-v3.md#update-policy-queue-update-strategy-v3)    
**`Size`(**Fakultativ**,`Integer`)**  
Gibt die Größe des Root-Volumes in Gibibyte (GiB) für die Knoten in der Slurm Warteschlange an. Die Standardgröße stammt aus dem AMI. Die Verwendung einer anderen Größe erfordert, dass das AMI sie unterstützt`growroot`.   
[Richtlinie aktualisieren: Die Rechenflotte muss gestoppt oder QueueUpdateStrategyeingerichtet sein, damit diese Einstellung für ein Update geändert werden kann.](using-pcluster-update-cluster-v3.md#update-policy-queue-update-strategy-v3)  
**`Encrypted`(**Fakultativ**,`Boolean`)**  
Falls`true`, ist das Root-Volume der Knoten in der Slurm Warteschlange verschlüsselt. Der Standardwert ist `true`.  
[Richtlinie aktualisieren: Die Rechenflotte muss gestoppt oder QueueUpdateStrategyeingerichtet sein, damit diese Einstellung für ein Update geändert werden kann.](using-pcluster-update-cluster-v3.md#update-policy-queue-update-strategy-v3)  
**`VolumeType`(**Fakultativ**,`String`)**  
Gibt den [Amazon EBS-Volumetyp](https://docs.aws.amazon.com/AWSEC2/latest/UserGuide/EBSVolumeTypes.html) der Knoten in der Slurm Warteschlange an. Unterstützte Werte sind `gp2``gp3`,`io1`,`io2`, `sc1``st1`, und`standard`. Der Standardwert ist `gp3`.  
Weitere Informationen finden Sie unter [Amazon EBS-Volume-Typen](https://docs.aws.amazon.com/AWSEC2/latest/UserGuide/EBSVolumeTypes.html) im *Amazon EC2-Benutzerhandbuch*.  
[Richtlinie aktualisieren: Die Rechenflotte muss gestoppt oder QueueUpdateStrategyeingerichtet sein, damit diese Einstellung für ein Update geändert werden kann.](using-pcluster-update-cluster-v3.md#update-policy-queue-update-strategy-v3)  
**`Iops`(**Fakultativ**,`Boolean`)**  
Definiert die Anzahl der IOPS für Volumes `gp3` vom Typ `io1``io2`, und.  
Der Standardwert, die unterstützten Werte und das `volume_size` Verhältnis `volume_iops` zum Verhältnis variieren je nach `VolumeType` und`Size`.    
**`VolumeType` = `io1`**  
Standard `Iops` = 100  
Unterstützte Werte `Iops` = 100—64000 †  
Maximales `volume_iops` `volume_size` Verhältnis = 50 IOPS pro GiB. 5000 IOPS erfordern einen Wert `volume_size` von mindestens 100 GiB.  
**`VolumeType` = `io2`**  
Standard `Iops` = 100  
Unterstützte Werte `Iops` = 100—64000 (256000 für `io2` Block Express-Volumes) †  
Maximales `Iops` `Size` Verhältnis = 500 IOPS pro GiB. 5000 IOPS erfordern einen Wert `Size` von mindestens 10 GiB.  
**`VolumeType` = `gp3`**  
Standard `Iops` = 3000  
Unterstützte Werte `Iops` = 3000—16000 †  
Maximales `Iops` `Size` Verhältnis = 500 IOPS pro GiB für Volumes mit mehr als 3000 IOPS.
† Maximale IOPS wird nur für [Instances garantiert, die auf dem Nitro-System basieren](https://docs.aws.amazon.com/AWSEC2/latest/UserGuide/instance-types.html#ec2-nitro-instances) und auch mit mehr als 32.000 IOPS ausgestattet sind. Andere Instanzen können bis zu 32.000 IOPS haben. Frühere `io1` Volumes erreichen möglicherweise nicht die volle Leistung, es sei denn, Sie [ändern das](https://docs.aws.amazon.com/AWSEC2/latest/UserGuide/ebs-modify-volume.html) Volume. `io2` Block Express-Volumes unterstützen `volume_iops` Werte bis zu 256000 für `R5b` Instance-Typen. Weitere Informationen finden Sie unter [`io2`Block Express-Volumes](https://docs.aws.amazon.com/AWSEC2/latest/UserGuide/ebs-volume-types.html#io2-block-express) im *Amazon EC2 EC2-Benutzerhandbuch*.  
[Richtlinie aktualisieren: Die Rechenflotte muss gestoppt oder QueueUpdateStrategyeingerichtet sein, damit diese Einstellung für ein Update geändert werden kann.](using-pcluster-update-cluster-v3.md#update-policy-queue-update-strategy-v3)  
**`Throughput`(**Fakultativ**,`Integer`)**  
Definiert den Durchsatz für `gp3` Volumetypen in MiB/s. Diese Einstellung ist nur gültig, wenn sie `VolumeType` ist. `gp3` Der Standardwert ist `125`. Unterstützte Werte: 125—1000 MiB/s  
Das Verhältnis von `Throughput` zu `Iops` darf nicht mehr als 0,25 betragen. Der maximale Durchsatz von 1000 MiB/s setzt voraus, dass die `Iops` Einstellung mindestens 4000 beträgt.  
[Richtlinie aktualisieren: Die Rechenflotte muss gestoppt oder QueueUpdateStrategyeingerichtet sein, damit diese Einstellung für ein Update geändert werden kann.](using-pcluster-update-cluster-v3.md#update-policy-queue-update-strategy-v3)  
**`EphemeralVolume`(**Fakultativ**,`Boolean`)**  
Gibt die Einstellungen für das kurzlebige Volumen an. Das ephemere Volume wird erstellt, indem alle Instance-Speicher-Volumes zu einem einzigen logischen Volume zusammengefasst werden, das mit dem Dateisystem formatiert ist. `ext4` Der Standardwert ist `/scratch`. Wenn der Instance-Typ keine Instance-Speicher-Volumes hat, wird kein ephemeres Volume erstellt. Weitere Informationen finden Sie unter [Instance-Speicher-Volumes](https://docs.aws.amazon.com/AWSEC2/latest/UserGuide/InstanceStorage.html#instance-store-volumes) im *Amazon EC2-Benutzerhandbuch*.  

```
EphemeralVolume:
  MountDir: string
```
[Richtlinie aktualisieren: Die Rechenflotte muss gestoppt oder QueueUpdateStrategyeingerichtet sein, damit diese Einstellung für ein Update geändert werden kann.](using-pcluster-update-cluster-v3.md#update-policy-queue-update-strategy-v3)    
**`MountDir`(**Optional**,) `String`**  
Das Mount-Verzeichnis für das ephemere Volume für jeden Knoten in der Slurm Warteschlange.   
[Richtlinie aktualisieren: Die Rechenflotte muss gestoppt oder QueueUpdateStrategyeingerichtet sein, damit diese Einstellung für ein Update geändert werden kann.](using-pcluster-update-cluster-v3.md#update-policy-queue-update-strategy-v3)

#### `CustomActions`
<a name="Scheduling-v3-SlurmQueues-CustomActions"></a>

**(Optional)** Gibt benutzerdefinierte Skripts an, die auf den Knoten in der Slurm Warteschlange ausgeführt werden sollen.

```
CustomActions:
  OnNodeStart:
    Sequence:
      - Script: string
        Args:
          - string
    Script: string
    Args:
      - string
  OnNodeConfigured:
    Sequence:
      - Script: string
        Args:
          - string
    Script: string
    Args:
      - string
```

[Richtlinie aktualisieren: Die Rechenflotte muss gestoppt oder QueueUpdateStrategyeingerichtet sein, damit diese Einstellung für ein Update geändert werden kann.](using-pcluster-update-cluster-v3.md#update-policy-queue-update-strategy-v3)

##### `CustomActions`Eigenschaften
<a name="Scheduling-v3-SlurmQueues-CustomActions.properties"></a>

**`OnNodeStart`(**Fakultativ**,`String`)**  
Gibt eine Sequenz von Skripten oder ein einzelnes Skript an, das auf den Knoten in der Slurm Warteschlange ausgeführt werden soll, bevor eine Bootstrap-Aktion zur Knotenbereitstellung gestartet wird. AWS ParallelCluster unterstützt nicht, sowohl ein einzelnes Skript als auch `Sequence` dieselbe benutzerdefinierte Aktion einzubeziehen. Weitere Informationen finden Sie unter [Benutzerdefinierte Bootstrap-Aktionen](custom-bootstrap-actions-v3.md).    
**`Sequence`(**Fakultativ**)**  
Liste der auszuführenden Skripts.  
[Richtlinie aktualisieren: Die Rechenflotte muss gestoppt oder QueueUpdateStrategyeingerichtet sein, damit diese Einstellung für ein Update geändert werden kann.](using-pcluster-update-cluster-v3.md#update-policy-queue-update-strategy-v3)    
**`Script`(**Erforderlich**,`String`)**  
Die zu verwendende Datei. Der Dateipfad kann mit `https://` oder beginnen`s3://`.  
[Richtlinie aktualisieren: Die Rechenflotte muss gestoppt oder QueueUpdateStrategyeingerichtet sein, damit diese Einstellung für ein Update geändert werden kann.](using-pcluster-update-cluster-v3.md#update-policy-queue-update-strategy-v3)  
**`Args`(**Fakultativ**,`[String]`)**  
Die Liste der Argumente, die an das Skript übergeben werden sollen.  
[Richtlinie aktualisieren: Die Rechenflotte muss gestoppt oder QueueUpdateStrategyeingerichtet sein, damit diese Einstellung für ein Update geändert werden kann.](using-pcluster-update-cluster-v3.md#update-policy-queue-update-strategy-v3)  
**`Script`(**Erforderlich**,`String`)**  
Die Datei, die für ein einzelnes Skript verwendet werden soll. Der Dateipfad kann mit `https://` oder beginnen`s3://`.  
[Richtlinie aktualisieren: Die Rechenflotte muss gestoppt oder QueueUpdateStrategyeingerichtet sein, damit diese Einstellung für ein Update geändert werden kann.](using-pcluster-update-cluster-v3.md#update-policy-queue-update-strategy-v3)  
**`Args`(**Fakultativ**,`[String]`)**  
Die Liste der Argumente, die an das einzelne Skript übergeben werden sollen.  
[Richtlinie aktualisieren: Die Rechenflotte muss gestoppt oder QueueUpdateStrategyeingerichtet sein, damit diese Einstellung für ein Update geändert werden kann.](using-pcluster-update-cluster-v3.md#update-policy-queue-update-strategy-v3)
[Richtlinie aktualisieren: Die Rechenflotte muss gestoppt oder QueueUpdateStrategyeingerichtet sein, damit diese Einstellung für ein Update geändert werden kann.](using-pcluster-update-cluster-v3.md#update-policy-queue-update-strategy-v3)

**`OnNodeConfigured`(**Fakultativ**,`String`)**  
Gibt eine Sequenz von Skripten oder ein einzelnes Skript an, das auf den Knoten in der Slurm Warteschlange ausgeführt wird, nachdem alle Knoten-Bootstrap-Aktionen abgeschlossen sind. AWS ParallelCluster unterstützt nicht, sowohl ein einzelnes Skript als auch `Sequence` dieselbe benutzerdefinierte Aktion einzubeziehen. Weitere Informationen finden Sie unter [Benutzerdefinierte Bootstrap-Aktionen](custom-bootstrap-actions-v3.md).    
**`Sequence`(**Fakultativ**)**  
Liste der auszuführenden Skripts.  
[Richtlinie aktualisieren: Die Rechenflotte muss gestoppt oder QueueUpdateStrategyeingerichtet sein, damit diese Einstellung für ein Update geändert werden kann.](using-pcluster-update-cluster-v3.md#update-policy-queue-update-strategy-v3)    
**`Script`(**Erforderlich**,`String`)**  
Die zu verwendende Datei. Der Dateipfad kann mit `https://` oder beginnen`s3://`.  
[Richtlinie aktualisieren: Die Rechenflotte muss gestoppt oder QueueUpdateStrategyeingerichtet sein, damit diese Einstellung für ein Update geändert werden kann.](using-pcluster-update-cluster-v3.md#update-policy-queue-update-strategy-v3)  
**`Args`(**Fakultativ**,`[String]`)**  
Die Liste der Argumente, die an das Skript übergeben werden sollen.  
[Richtlinie aktualisieren: Die Rechenflotte muss gestoppt oder QueueUpdateStrategyeingerichtet sein, damit diese Einstellung für ein Update geändert werden kann.](using-pcluster-update-cluster-v3.md#update-policy-queue-update-strategy-v3)  
**`Script`(**Erforderlich**,`String`)**  
Die Datei, die für ein einzelnes Skript verwendet werden soll. Der Dateipfad kann mit `https://` oder beginnen`s3://`.  
[Richtlinie aktualisieren: Die Rechenflotte muss gestoppt oder QueueUpdateStrategyeingerichtet sein, damit diese Einstellung für ein Update geändert werden kann.](using-pcluster-update-cluster-v3.md#update-policy-queue-update-strategy-v3)  
**`Args`(**Fakultativ**,`[String]`)**  
Eine Liste von Argumenten, die an das einzelne Skript übergeben werden sollen.  
[Richtlinie aktualisieren: Die Rechenflotte muss gestoppt oder QueueUpdateStrategyeingerichtet sein, damit diese Einstellung für ein Update geändert werden kann.](using-pcluster-update-cluster-v3.md#update-policy-queue-update-strategy-v3)
[Richtlinie aktualisieren: Die Rechenflotte muss gestoppt oder QueueUpdateStrategyeingerichtet sein, damit diese Einstellung für ein Update geändert werden kann.](using-pcluster-update-cluster-v3.md#update-policy-queue-update-strategy-v3)  
`Sequence`wird ab AWS ParallelCluster Version 3.6.0 hinzugefügt. Wenn Sie angeben`Sequence`, können Sie mehrere Skripts für eine benutzerdefinierte Aktion auflisten. AWS ParallelCluster unterstützt weiterhin die Konfiguration einer benutzerdefinierten Aktion mit einem einzigen Skript, ohne dies einzuschließen`Sequence`.  
AWS ParallelCluster unterstützt nicht, sowohl ein einzelnes Skript als auch `Sequence` dieselbe benutzerdefinierte Aktion einzubeziehen.

#### `Iam`
<a name="Scheduling-v3-SlurmQueues-Iam"></a>

**(Optional)** Definiert optionale IAM-Einstellungen für die Slurm Warteschlange.

```
Iam:
  S3Access:
    - BucketName: string
      EnableWriteAccess: boolean
      KeyName: string
  AdditionalIamPolicies:
    - Policy: string
  InstanceProfile: string
  InstanceRole: string
```

[Aktualisierungsrichtlinie: Diese Einstellung kann während eines Updates geändert werden.](using-pcluster-update-cluster-v3.md#update-policy-setting-supported-v3)

##### `Iam`Eigenschaften
<a name="Scheduling-v3-SlurmQueues-Iam.properties"></a>

**`InstanceProfile`(**Fakultativ**,`String`)**  
Gibt ein Instanzprofil an, um die Standard-Instanzrolle oder das Instanzprofil für die Slurm Warteschlange zu überschreiben. Sie können nicht sowohl als `InstanceProfile` auch angeben`InstanceRole`. Das Format ist `arn:${Partition}:iam::${Account}:instance-profile/${InstanceProfileName}`.  
Wenn dies angegeben ist, können die `AdditionalIamPolicies` Einstellungen `S3Access` und nicht angegeben werden.  
Es wird empfohlen, eine oder beide `AdditionalIamPolicies` Einstellungen für `S3Access` und anzugeben, da hinzugefügte Funktionen AWS ParallelCluster häufig neue Berechtigungen erfordern.  
[Aktualisierungsrichtlinie: Die Rechenflotte muss gestoppt werden, damit diese Einstellung für ein Update geändert werden kann.](using-pcluster-update-cluster-v3.md#update-policy-compute-fleet-v3)

**`InstanceRole`(**Optional**,`String`)**  
Gibt eine Instanzrolle an, um die Standard-Instanzrolle oder das Instanzprofil für die Slurm Warteschlange zu überschreiben. Sie können nicht sowohl als `InstanceProfile` auch angeben`InstanceRole`. Das Format ist `arn:${Partition}:iam::${Account}:role/${RoleName}`.  
Wenn dies angegeben ist, können die `AdditionalIamPolicies` Einstellungen `S3Access` und nicht angegeben werden.  
Es wird empfohlen, eine oder beide `AdditionalIamPolicies` Einstellungen für `S3Access` und anzugeben, da hinzugefügte Funktionen AWS ParallelCluster häufig neue Berechtigungen erfordern.  
[Aktualisierungsrichtlinie: Diese Einstellung kann während eines Updates geändert werden.](using-pcluster-update-cluster-v3.md#update-policy-setting-supported-v3)

**`S3Access`(**Fakultativ**)**  
Gibt einen Bucket für die Slurm Warteschlange an. Dies wird verwendet, um Richtlinien zu generieren, um den angegebenen Zugriff auf den Bucket in der Slurm Warteschlange zu gewähren.  
Wenn dies angegeben ist, können die `InstanceRole` Einstellungen `InstanceProfile` und nicht angegeben werden.  
Es wird empfohlen, eine oder beide `AdditionalIamPolicies` Einstellungen für `S3Access` und anzugeben, da hinzugefügte Funktionen AWS ParallelCluster häufig neue Berechtigungen erfordern.  

```
S3Access:
  - BucketName: string
    EnableWriteAccess: boolean
    KeyName: string
```
[Aktualisierungsrichtlinie: Diese Einstellung kann während eines Updates geändert werden.](using-pcluster-update-cluster-v3.md#update-policy-setting-supported-v3)    
**`BucketName`(**Erforderlich**,`String`)**  
Der Name des -Buckets.  
[Aktualisierungsrichtlinie: Diese Einstellung kann während eines Updates geändert werden.](using-pcluster-update-cluster-v3.md#update-policy-setting-supported-v3)  
**`KeyName`(**Fakultativ**,`String`)**  
Der Schlüssel für den Eimer. Der Standardwert ist `*`.  
[Aktualisierungsrichtlinie: Diese Einstellung kann während eines Updates geändert werden.](using-pcluster-update-cluster-v3.md#update-policy-setting-supported-v3)  
**`EnableWriteAccess`(**Fakultativ**,`Boolean`)**  
Gibt an, ob der Schreibzugriff für den Bucket aktiviert ist.  
[Aktualisierungsrichtlinie: Diese Einstellung kann während eines Updates geändert werden.](using-pcluster-update-cluster-v3.md#update-policy-setting-supported-v3)

**`AdditionalIamPolicies`(**Fakultativ**)**  
Gibt eine Liste von Amazon Resource Names (ARNs) von IAM-Richtlinien für Amazon EC2 an. Diese Liste ist zusätzlich zu den Berechtigungen, die für erforderlich sind, an die Root-Rolle angehängt, die für die Slurm Warteschlange verwendet wird. AWS ParallelCluster  
Ein IAM-Richtlinienname und sein ARN sind unterschiedlich. Namen können nicht verwendet werden.  
Wenn dies angegeben ist, können die `InstanceRole` Einstellungen `InstanceProfile` und nicht angegeben werden.  
Wir empfehlen die Verwendung, `AdditionalIamPolicies` da sie zu den erforderlichen Berechtigungen hinzugefügt `AdditionalIamPolicies` werden und alle erforderlichen Berechtigungen enthalten `InstanceRole` müssen. AWS ParallelCluster Die erforderlichen Berechtigungen ändern sich häufig von Version zu Version, da Funktionen hinzugefügt werden.  
Es gibt keinen Standardwert.  

```
AdditionalIamPolicies:
  - Policy: string
```
[Aktualisierungsrichtlinie: Diese Einstellung kann während eines Updates geändert werden.](using-pcluster-update-cluster-v3.md#update-policy-setting-supported-v3)    
**`Policy`(**Erforderlich**,`[String]`)**  
Liste der IAM-Richtlinien.  
[Aktualisierungsrichtlinie: Diese Einstellung kann während eines Updates geändert werden.](using-pcluster-update-cluster-v3.md#update-policy-setting-supported-v3)

## `SlurmSettings`
<a name="Scheduling-v3-SlurmSettings"></a>

**(Optional)** Definiert die EinstellungenSlurm, die für den gesamten Cluster gelten.

```
SlurmSettings:
  ScaledownIdletime: integer
  QueueUpdateStrategy: string
  EnableMemoryBasedScheduling: boolean
  CustomSlurmSettings: [dict] 
  CustomSlurmSettingsIncludeFile: string
  Database:
    Uri: string
    UserName: string
    PasswordSecretArn: string
  ExternalSlurmdbd:
    Host: string
    Port: integer
  Dns:
    DisableManagedDns: boolean
    HostedZoneId: string
    UseEc2Hostnames: boolean
```

### `SlurmSettings`Eigenschaften
<a name="Scheduling-v3-SlurmSettings.properties"></a>

**`ScaledownIdletime`(**Fakultativ**,`Integer`)**  
Definiert den Zeitraum (in Minuten), für den es keinen Job gibt und der Slurm Knoten beendet wird.  
Der Standardwert ist `10`.  
[Aktualisierungsrichtlinie: Die Rechenflotte muss gestoppt werden, damit diese Einstellung für ein Update geändert werden kann.](using-pcluster-update-cluster-v3.md#update-policy-compute-fleet-v3)

**`MungeKeySecretArn`(**Optional**,`String`)**  
 Der Amazon-Ressourcenname (ARN) des AWS Secrets Manager Manager-Geheimnisses im Klartext, das den Base64-kodierten Munge-Schlüssel enthält, der im Cluster verwendet werden soll. Slurm Dieser Munge-Schlüssel wird verwendet, um RPC-Aufrufe zwischen Slurm Client-Befehlen und Slurm Daemons zu authentifizieren, die als Remoteserver agieren. Wenn MungeKeySecretArn nicht angegeben, AWS ParallelCluster wird ein zufälliger Munge-Schlüssel für den Cluster generiert.  
`MungeKeySecretArn`wird ab AWS ParallelCluster Version 3.8.0 unterstützt.
Wenn der MungeKeySecretArn neu zu einem vorhandenen Cluster hinzugefügt ParallelCluster wird, wird der vorherige munge Key im Falle eines Rollbacks oder beim späteren Entfernen des nicht wiederhergestellt. MungeKeySecretArn Stattdessen wird ein neuer zufälliger Munge-Schlüssel generiert.
Ob der AWS ParallelCluster Benutzer die Erlaubnis hat, [ DescribeSecret](https://docs.aws.amazon.com/secretsmanager/latest/apireference/API_DescribeSecret.html)auf diese bestimmte geheime Ressource zuzugreifen, MungeKeySecretArn wird überprüft. MungeKeySecretArn ist gültig, wenn:  
+ Das angegebene Geheimnis ist vorhanden, und
+ Das Geheimnis ist Klartext und enthält eine gültige Base64-kodierte Zeichenfolge, und
+ Der dekodierte binäre Munge-Schlüssel hat eine Größe zwischen 256 und 8192 Bit.
Wenn die IAM-Richtlinie für den Pcluster-Benutzer nicht einschließt DescribeSecret, MungeKeySecretArn wird sie nicht validiert und es wird eine Warnmeldung angezeigt. Weitere Informationen finden Sie unter [AWS ParallelCluster `pcluster`Grundlegende Benutzerrichtlinie](iam-roles-in-parallelcluster-v3.md#iam-roles-in-parallelcluster-v3-base-user-policy).  
Wenn Sie ein Update MungeKeySecretArn durchführen, müssen die Rechenflotte und alle Anmeldeknoten gestoppt werden.  
Wenn der geheime Wert im geheimen ARN geändert wird, während der ARN gleich bleibt, wird der Cluster nicht automatisch mit dem neuen Munge-Schlüssel aktualisiert. Um den neuen Munge-Schlüssel des geheimen ARN zu verwenden, müssen Sie die Compute-Flotte und die Anmeldeknoten stoppen und dann den folgenden Befehl vom Hauptknoten aus ausführen.  
`sudo /opt/parallelcluster/scripts/slurm/update_munge_key.sh`  
Nachdem Sie den Befehl ausgeführt haben, können Sie sowohl die Rechenflotte als auch die Anmeldeknoten wieder aufnehmen: Die neu bereitgestellten Rechen- und Anmeldeknoten werden automatisch mit dem neuen Munge-Schlüssel gestartet.  
Um einen Base64-codierten benutzerdefinierten Munge-Schlüssel zu generieren, können Sie das im Lieferumfang der [Munge-Software enthaltene Mungekey-Hilfsprogramm](https://github.com/dun/munge/wiki/Man-8-mungekey) verwenden und es dann mit dem Base64-Hilfsprogramm codieren, das allgemein in Ihrem Betriebssystem verfügbar ist. Alternativ können Sie entweder bash verwenden (bitte setzen Sie den bs-Parameter zwischen 32 und 1024)  
`dd if=/dev/random bs=128 count=1 2>/dev/null | base64 -w 0`  
oder Python wie folgt:  

```
import random
import os
import base64

# key length in bytes
key_length=128

base64.b64encode(os.urandom(key_length)).decode("utf-8")
```
[Richtlinie aktualisieren: Die Rechenflotte und die Anmeldeknoten müssen gestoppt werden, damit diese Einstellung für ein Update geändert werden kann.](using-pcluster-update-cluster-v3.md)

**`QueueUpdateStrategy`(**Optional**,`String`)**  
Gibt die Ersatzstrategie für die [`SlurmQueues`](#Scheduling-v3-SlurmQueues) Abschnittsparameter an, für die die folgende Aktualisierungsrichtlinie gilt:  
[Aktualisierungsrichtlinie: Die Rechenflotte muss gestoppt oder `QueueUpdateStrategy` eingerichtet sein, damit diese Einstellung für ein Update geändert werden kann.](using-pcluster-update-cluster-v3.md#update-policy-queue-update-strategy-v3)  
Der `QueueUpdateStrategy` Wert wird nur verwendet, wenn ein Cluster-Aktualisierungsprozess gestartet wird.  
Zulässige Werte: `COMPUTE_FLEET_STOP` \$1 `DRAIN` \$1 `TERMINATE`  
Standardwert: `COMPUTE_FLEET_STOP`    
**`DRAIN`**  
Knoten in Warteschlangen mit geänderten Parameterwerten sind auf `DRAINING` eingestellt. Knoten in diesem Status akzeptieren keine neuen Jobs und laufende Jobs werden bis zum Abschluss fortgesetzt.  
Wenn ein Knoten zu `idle` (`DRAINED`) wird, wird ein Knoten ersetzt, wenn es sich um einen statischen Knoten handelt, und der Knoten wird beendet, wenn der Knoten dynamisch ist. Andere Knoten in anderen Warteschlangen ohne geänderte Parameterwerte sind nicht betroffen.  
Die Zeit, die diese Strategie benötigt, um alle Warteschlangenknoten durch geänderte Parameterwerte zu ersetzen, hängt von der laufenden Arbeitslast ab.  
**`COMPUTE_FLEET_STOP`**  
Der Standardwert des `QueueUpdateStrategy` Parameters. Bei dieser Einstellung müssen Sie zum Aktualisieren der Parameter [`SlurmQueues`](#Scheduling-v3-SlurmQueues) im Abschnitt [die Rechenflotte beenden](pcluster.update-compute-fleet-v3.md), bevor Sie ein Cluster-Update durchführen:  

```
$ pcluster update-compute-fleet --status STOP_REQUESTED
```  
**`TERMINATE`**  
In Warteschlangen mit geänderten Parameterwerten werden laufende Jobs beendet und die Knoten werden sofort heruntergefahren.  
Statische Knoten werden ersetzt und dynamische Knoten werden beendet.  
Andere Knoten in anderen Warteschlangen ohne geänderte Parameterwerte sind nicht betroffen.
[Aktualisierungsrichtlinie: Diese Einstellung wird während eines Updates nicht analysiert.](using-pcluster-update-cluster-v3.md#update-policy-setting-ignored-v3)  
`QueueUpdateStrategy`wird ab AWS ParallelCluster Version 3.2.0 unterstützt.

**`EnableMemoryBasedScheduling`(**Fakultativ**,`Boolean`)**  
Falls `true` die speicherbasierte Planung in aktiviert ist. Slurm Weitere Informationen finden Sie unter [`SlurmQueues`](#Scheduling-v3-SlurmQueues)//[`ComputeResources`](#Scheduling-v3-SlurmQueues-ComputeResources). [`SchedulableMemory`](#yaml-Scheduling-SlurmQueues-ComputeResources-SchedulableMemory)  
Der Standardwert ist `false`.  
Die Aktivierung der speicherbasierten Planung wirkt sich auf die Art und Weise aus, wie der Slurm Scheduler Jobs und die Knotenzuweisung verarbeitet.  
Weitere Informationen finden Sie unter [Slurm speicherbasierte Terminplanung](slurm-mem-based-scheduling-v3.md).
`EnableMemoryBasedScheduling`wird ab Version 3.2.0 unterstützt. AWS ParallelCluster 
[Ab AWS ParallelCluster Version 3.7.0 `EnableMemoryBasedScheduling` kann aktiviert werden, wenn Sie mehrere Instanztypen in Instances konfigurieren.](#yaml-Scheduling-SlurmQueues-ComputeResources-Instances)  
Für die AWS ParallelCluster Versionen 3.2.0 bis 3.6. *x*, `EnableMemoryBasedScheduling` kann nicht aktiviert werden, wenn Sie mehrere Instanztypen in [Instances](#yaml-Scheduling-SlurmQueues-ComputeResources-Instances) konfigurieren.
[Aktualisierungsrichtlinie: Die Rechenflotte muss gestoppt werden, damit diese Einstellung für ein Update geändert werden kann.](using-pcluster-update-cluster-v3.md#update-policy-compute-fleet-v3)

**`CustomSlurmSettings`(**Optional**,`[Dict]`)**  
Definiert die benutzerdefinierten Slurm Einstellungen, die für den gesamten Cluster gelten.  
Gibt eine Liste von Slurm Konfigurationswörterbüchern mit Schlüssel-Wert-Paaren an, die an das Ende der generierten Datei angehängt werden. `slurm.conf` AWS ParallelCluster   
Jedes Wörterbuch in der Liste wird als separate Zeile angezeigt, die der Konfigurationsdatei hinzugefügt wird. Slurm Sie können entweder einfache oder komplexe Parameter angeben.  
Einfache Parameter bestehen aus einem einzigen key pair, wie in den folgenden Beispielen gezeigt:  

```
 - Param1: 100
 - Param2: "SubParam1,SubParam2=SubValue2"
```
In der Slurm Konfiguration gerendertes Beispiel:  

```
Param1=100
Param2=SubParam1,SubParam2=SubValue2
```
Komplexe Slurm Konfigurationsparameter bestehen aus mehreren durch Leerzeichen getrennten Schlüsselwertpaaren, wie in den nächsten Beispielen gezeigt:  

```
 - NodeName: test-nodes[1-10]
   CPUs: 4
   RealMemory: 4196
   ... # other node settings
 - NodeSet: test-nodeset
   Nodes: test-nodes[1-10]
   ... # other nodeset settings
 - PartitionName: test-partition
   Nodes: test-nodeset
   ... # other partition settings
```
Beispiel, gerendert in der Konfiguration: Slurm  

```
NodeName=test-nodes[1-10] CPUs=4 RealMemory=4196 ... # other node settings
NodeSet=test-nodeset Nodes=test-nodes[1-10] ... # other nodeset settings
PartitionName=test-partition Nodes=test-nodeset ... # other partition settings
```
Benutzerdefinierte Slurm Knoten dürfen die `-dy-` Muster `-st-` oder nicht in ihren Namen enthalten. Diese Muster sind Knoten vorbehalten, die von verwaltet werden AWS ParallelCluster.
Wenn Sie benutzerdefinierte Slurm Konfigurationsparameter in angeben`CustomSlurmSettings`, dürfen Sie keine benutzerdefinierten Slurm Konfigurationsparameter für angeben`CustomSlurmSettingsIncludeFile`.  
Sie können nur Slurm Konfigurationsparameter angeben, die in nicht auf der Sperrliste stehen. `CustomSlurmSettings` Hinweise zu Slurm Konfigurationsparametern auf der Sperrliste finden Sie unter. [Auf der Denim-Liste Slurm Konfigurationsparameter für `CustomSlurmSettings`](slurm-configuration-settings-v3.md#slurm-configuration-denylists-v3)  
AWS ParallelCluster prüft nur, ob ein Parameter auf einer Sperrliste steht. AWS ParallelCluster validiert die Syntax oder Semantik Ihrer benutzerdefinierten Slurm Konfigurationsparameter nicht. Es liegt in Ihrer Verantwortung, Ihre benutzerdefinierten Slurm Konfigurationsparameter zu validieren. Ungültige benutzerdefinierte Slurm Konfigurationsparameter können zu Slurm Daemon-Ausfällen führen, die zu Fehlern bei der Clustererstellung und -aktualisierung führen können.  
Weitere Hinweise zum Angeben von benutzerdefinierten Slurm Konfigurationsparametern mit finden Sie AWS ParallelCluster unter[Slurm Anpassung der Konfiguration](slurm-configuration-settings-v3.md).  
Weitere Informationen zu Slurm Konfigurationsparametern finden Sie in der [Dokumentation unter slurm.conf.](https://slurm.schedmd.com/slurm.conf.html) Slurm  
[Aktualisierungsrichtlinie: Diese Einstellung kann während eines Updates geändert werden.](using-pcluster-update-cluster-v3.md#update-policy-setting-supported-v3)  
`CustomSlurmSettings`wird ab Version 3.6.0 unterstützt. AWS ParallelCluster 

**`CustomSlurmSettingsIncludeFile`(**Fakultativ**,`String`)**  
Definiert die benutzerdefinierten Slurm Einstellungen, die für den gesamten Cluster gelten.  
Gibt die benutzerdefinierte Slurm Datei an, die aus benutzerdefinierten Slurm Konfigurationsparametern besteht, die am Ende der AWS ParallelCluster generierten `slurm.conf` Datei angehängt werden.  
Sie müssen den Pfad zur Datei angeben. Der Pfad kann mit `https://` oder beginnen`s3://`.  
Wenn Sie benutzerdefinierte Slurm Konfigurationsparameter für angeben`CustomSlurmSettingsIncludeFile`, dürfen Sie keine benutzerdefinierten Slurm Konfigurationsparameter für angeben`CustomSlurmSettings`.  
Benutzerdefinierte Slurm Knoten dürfen keine `-dy-` Oder-Muster in ihren Namen enthalten. `-st-` Diese Muster sind Knoten vorbehalten, die von verwaltet werden AWS ParallelCluster.
Sie können nur Slurm Konfigurationsparameter angeben, die nicht auf der Sperrliste stehen. `CustomSlurmSettingsIncludeFile` Hinweise zu Slurm Konfigurationsparametern auf der Sperrliste finden Sie unter. [Auf der Denim-Liste Slurm Konfigurationsparameter für `CustomSlurmSettings`](slurm-configuration-settings-v3.md#slurm-configuration-denylists-v3)  
AWS ParallelCluster prüft nur, ob ein Parameter auf einer Sperrliste steht. AWS ParallelCluster validiert die Syntax oder Semantik Ihrer benutzerdefinierten Slurm Konfigurationsparameter nicht. Es liegt in Ihrer Verantwortung, Ihre benutzerdefinierten Slurm Konfigurationsparameter zu validieren. Ungültige benutzerdefinierte Slurm Konfigurationsparameter können zu Slurm Daemon-Ausfällen führen, die zu Fehlern bei der Clustererstellung und -aktualisierung führen können.  
Weitere Hinweise zum Angeben von benutzerdefinierten Slurm Konfigurationsparametern mit finden Sie AWS ParallelCluster unter[Slurm Anpassung der Konfiguration](slurm-configuration-settings-v3.md).  
Weitere Informationen zu Slurm Konfigurationsparametern finden Sie in der [Dokumentation unter slurm.conf.](https://slurm.schedmd.com/slurm.conf.html) Slurm  
[Aktualisierungsrichtlinie: Diese Einstellung kann während eines Updates geändert werden.](using-pcluster-update-cluster-v3.md#update-policy-setting-supported-v3)  
`CustomSlurmSettings`wird ab Version 3.6.0 unterstützt. AWS ParallelCluster 

### `Database`
<a name="Scheduling-v3-SlurmSettings-Database"></a>

**(Optional)** Definiert die Einstellungen zur Aktivierung von Slurm Accounting auf dem Cluster. Weitere Informationen finden Sie unter [SlurmAbrechnung mit AWS ParallelCluster](slurm-accounting-v3.md).

```
Database:
   Uri: string
   UserName: string
   PasswordSecretArn: string
```

[Aktualisierungsrichtlinie: Die Rechenflotte muss gestoppt werden, damit diese Einstellung für ein Update geändert werden kann.](using-pcluster-update-cluster-v3.md#update-policy-compute-fleet-v3)

#### `Database`-Eigenschaften
<a name="Scheduling-v3-SlurmSettings-Database.properties"></a>

**`Uri`(**Erforderlich**,`String`)**  
Die Adresse des Datenbankservers, der als Backend für die Slurm Buchhaltung verwendet wird. Dieser URI muss als formatiert sein `host:port` und darf kein Schema enthalten, wie z. `mysql://` Der Host kann entweder eine IP-Adresse oder ein DNS-Name sein, der vom Hauptknoten aufgelöst werden kann. Wenn kein Port bereitgestellt wird, wird der MySQL Standardport 3306 AWS ParallelCluster verwendet.  
AWS ParallelCluster bootet die Slurm Accounting-Datenbank in den Cluster und muss auf die Datenbank zugreifen.  
Die Datenbank muss erreichbar sein, bevor Folgendes passiert:  
+ Ein Cluster wird erstellt.
+ SlurmDie Kontoführung wird mit einem Cluster-Update aktiviert.
[Aktualisierungsrichtlinie: Die Rechenflotte muss gestoppt werden, damit diese Einstellung für ein Update geändert werden kann.](using-pcluster-update-cluster-v3.md#update-policy-compute-fleet-v3)

**`UserName`(**Erforderlich**,`String`)**  
Die Identität, die Slurm verwendet wird, um eine Verbindung mit der Datenbank herzustellen, Kontoführungsprotokolle zu schreiben und Abfragen durchzuführen. Der Benutzer muss sowohl Lese- als auch Schreibberechtigungen für die Datenbank haben.  
[Aktualisierungsrichtlinie: Die Rechenflotte muss gestoppt werden, damit diese Einstellung für ein Update geändert werden kann.](using-pcluster-update-cluster-v3.md#update-policy-compute-fleet-v3)

**`PasswordSecretArn`(**Erforderlich**,`String`)**  
Der Amazon-Ressourcenname (ARN) des AWS Secrets Manager Geheimnisses, das das `UserName` Klartext-Passwort enthält. Dieses Passwort wird zusammen mit `UserName` Slurm Accounting zur Authentifizierung auf dem Datenbankserver verwendet.  
+ Wenn Sie mit der AWS Secrets Manager Konsole ein Geheimnis erstellen, achten Sie darauf, „Andere Art von Geheimnis“ und Klartext auszuwählen und nur den Passworttext in das Geheimnis aufzunehmen.
+ Sie können das Zeichen '\$1' nicht im Datenbankpasswort verwenden, da Slurm es in slurmdbd.conf nicht unterstützt.
+ [Weitere Informationen zur Erstellung eines Geheimnisses finden Sie unter Create AWS Secrets Manager an Secret. AWS Secrets Manager](https://docs.aws.amazon.com//secretsmanager/latest/userguide/create_secret)
Ob der Benutzer dazu berechtigt `PasswordSecretArn` ist [DescribeSecret](https://docs.aws.amazon.com/secretsmanager/latest/apireference/API_DescribeSecret.html), wird überprüft. `PasswordSecretArn`ist gültig, wenn das angegebene Geheimnis existiert. Wenn die Benutzer-IAM-Richtlinie dies nicht beinhaltet`DescribeSecret`, `PasswordSecretArn` nicht validiert wird und eine Warnmeldung angezeigt wird. Weitere Informationen finden Sie unter [AWS ParallelCluster `pcluster`Grundlegende Benutzerrichtlinie](iam-roles-in-parallelcluster-v3.md#iam-roles-in-parallelcluster-v3-base-user-policy).  
Wenn Sie ein Update `PasswordSecretArn` durchführen, muss die Rechenflotte gestoppt werden. Wenn sich der geheime Wert ändert und der geheime ARN sich nicht ändert, wird der Cluster nicht automatisch mit dem neuen Datenbankkennwort aktualisiert. Um den Cluster für den neuen geheimen Wert zu aktualisieren, müssen Sie den folgenden Befehl vom Hauptknoten aus ausführen, nachdem die Compute-Flotte gestoppt wurde.  

```
$ sudo /opt/parallelcluster/scripts/slurm/update_slurm_database_password.sh
```
Wir empfehlen, das Datenbankkennwort nur zu ändern, wenn die Rechenflotte gestoppt ist, um den Verlust von Buchhaltungsdaten zu vermeiden.
[Aktualisierungsrichtlinie: Die Rechenflotte muss gestoppt werden, damit diese Einstellung für ein Update geändert werden kann.](using-pcluster-update-cluster-v3.md#update-policy-compute-fleet-v3)

**`DatabaseName`(**Optional**,`String`)**  
Name der Datenbank auf dem Datenbankserver (definiert durch den Parameter Uri), die für Slurm Accounting verwendet werden soll.  
Der Name der Datenbank kann Kleinbuchstaben, Zahlen und Unterstriche enthalten. Der Name darf nicht länger als 64 Zeichen sein.  
Dieser Parameter ist dem `StorageLoc` Parameter von [slurmdbd.conf](https://slurm.schedmd.com/slurmdbd.conf.html#OPT_StorageLoc) zugeordnet.  
Wenn `DatabaseName` nicht angegeben, ParallelCluster wird der Name des Clusters verwendet, um einen Wert für zu definieren. `StorageLoc`  
Die Aktualisierung von `DatabaseName` ist zulässig, wobei die folgenden Überlegungen zu beachten sind:  
+ Wenn eine Datenbank mit einem Namen noch DatabaseName nicht auf dem Datenbankserver existiert, erstellt slurmdbd sie. Es liegt in Ihrer Verantwortung, die neue Datenbank nach Bedarf neu zu konfigurieren (z. B. Hinzufügen der Buchhaltungseinheiten — Cluster, Konten, Benutzer QOSs, Assoziationen usw.).
+ Wenn auf dem Datenbankserver DatabaseName bereits eine Datenbank mit einem Namen existiert, wird slurmdbd sie für die Buchhaltungsfunktion verwenden. Slurm
[Aktualisierungsrichtlinie: Die Rechenflotte muss gestoppt werden, damit diese Einstellung für ein Update geändert werden kann.](using-pcluster-update-cluster-v3.md#update-policy-compute-fleet-v3)

**Anmerkung**  
`Database`wird ab Version 3.3.0 hinzugefügt.

### ExternalSlurmdbd
<a name="Scheduling-v3-SlurmSettings-ExternalSlurmdbd"></a>

**(Optional)** Definiert die Einstellungen, um Slurm Accounting mit einem externen Slurmdbd-Server zu aktivieren. [Weitere Informationen finden Sie unter Slurm Buchhaltung mit. AWS ParallelCluster](slurm-accounting-v3.md)

```
ExternalSlurmdbd:
  Host: string
  Port: integer
```

#### `ExternalSlurmdbd`-Eigenschaften
<a name="Scheduling-v3-SlurmSettings-ExternalSlurmdbd.properties"></a>

**`Host`(**Erforderlich**,`String`)**  
Die Adresse des externen Slurmdbd-Servers für die Buchhaltung. Slurm Der Host kann entweder eine IP-Adresse oder ein DNS-Name sein, der vom Hauptknoten aufgelöst werden kann.  
[Aktualisierungsrichtlinie: Diese Einstellung kann während eines Updates geändert werden.](using-pcluster-update-cluster-v3.md#update-policy-setting-supported-v3)

**`Port`(**Fakultativ**,`Integer`)**  
Der Port, auf den der Slurmdbd-Dienst hört. Der Standardwert ist `6819`.  
[Aktualisierungsrichtlinie: Diese Einstellung kann während eines Updates geändert werden.](using-pcluster-update-cluster-v3.md#update-policy-setting-supported-v3)

### `Dns`
<a name="Scheduling-v3-SlurmSettings-Dns"></a>

**(Optional)** Definiert die EinstellungenSlurm, die für den gesamten Cluster gelten.

```
Dns:
  DisableManagedDns: boolean
  HostedZoneId: string
  UseEc2Hostnames: boolean
```

#### `Dns`-Eigenschaften
<a name="Scheduling-v3-SlurmSettings-Dns.properties"></a>

**`DisableManagedDns`(**Optional**,`Boolean`)**  
Falls`true`, werden die DNS-Einträge für den Cluster nicht erstellt und die Slurm Knotennamen können nicht aufgelöst werden.  
 AWS ParallelCluster Erstellt standardmäßig eine Route 53-Hosting-Zone, in der Knoten beim Start registriert werden. Der Standardwert ist `false`. Wenn auf gesetzt `DisableManagedDns` ist`true`, wird die Hosting-Zone nicht von erstellt AWS ParallelCluster.  
Informationen zur Verwendung dieser Einstellung zur Bereitstellung von Clustern in Subnetzen ohne Internetzugang finden Sie unter[AWS ParallelCluster in einem einzigen Subnetz ohne Internetzugang](aws-parallelcluster-in-a-single-public-subnet-no-internet-v3.md).  
Für den ordnungsgemäßen Betrieb des Clusters ist ein System zur Namensauflösung erforderlich. Wenn auf gesetzt `DisableManagedDns` ist`true`, müssen Sie ein System zur Namensauflösung bereitstellen. Um den Amazon EC2 EC2-Standard-DNS zu verwenden, setzen Sie ihn `UseEc2Hostnames` auf`true`. Alternativ können Sie Ihren eigenen DNS-Resolver konfigurieren und sicherstellen, dass die Knotennamen registriert werden, wenn Instances gestartet werden. Sie können dies beispielsweise tun, indem Sie [`CustomActions`](#Scheduling-v3-SlurmQueues-CustomActions)/[`OnNodeStart`](#yaml-Scheduling-SlurmQueues-CustomActions-OnNodeStart)konfigurieren.
[Aktualisierungsrichtlinie: Wenn diese Einstellung geändert wird, ist das Update nicht zulässig.](using-pcluster-update-cluster-v3.md#update-policy-fail-v3)

**`HostedZoneId`(**Fakultativ**,`String`)**  
Definiert eine benutzerdefinierte Route 53-Hosting-Zonen-ID, die für die DNS-Namensauflösung für den Cluster verwendet wird. Falls angegeben, werden Clusterknoten in der angegebenen Hosting-Zone AWS ParallelCluster registriert und keine verwaltete Hosting-Zone erstellt.  
[Aktualisierungsrichtlinie: Wenn diese Einstellung geändert wird, ist das Update nicht zulässig.](using-pcluster-update-cluster-v3.md#update-policy-fail-v3)

**`UseEc2Hostnames`(**Optional**,`Boolean`)**  
Falls`true`, sind Cluster-Rechenknoten mit dem standardmäßigen EC2-Hostnamen konfiguriert. Der Slurm `NodeHostName` wird ebenfalls mit diesen Informationen aktualisiert. Der Standardwert ist `false`.  
Informationen zur Verwendung dieser Einstellung zur Bereitstellung von Clustern in Subnetzen ohne Internetzugang finden Sie unter[AWS ParallelCluster in einem einzigen Subnetz ohne Internetzugang](aws-parallelcluster-in-a-single-public-subnet-no-internet-v3.md).  
**Dieser Hinweis ist ab AWS ParallelCluster Version 3.3.0 nicht relevant.**  
Für AWS ParallelCluster unterstützte Versionen vor 3.3.0:  
Wenn auf gesetzt `UseEc2Hostnames` ist`true`, wird die Slurm-Konfigurationsdatei mit den Skripten AWS ParallelCluster `prolog` und `epilog` gesetzt:  
+ `prolog`wird ausgeführt, um Knoteninformationen zu `/etc/hosts` den Rechenknoten hinzuzufügen, wenn jeder Job zugewiesen ist.
+ `epilog`wird ausgeführt, um Inhalte zu bereinigen, die von geschrieben wurden`prolog`.
Um benutzerdefinierte `epilog` Skripts `prolog` oder Skripts hinzuzufügen, fügen Sie sie den jeweiligen `/opt/slurm/etc/pcluster/epilog.d/` Ordnern `/opt/slurm/etc/pcluster/prolog.d/` oder hinzu.
[Aktualisierungsrichtlinie: Wenn diese Einstellung geändert wird, ist das Update nicht zulässig.](using-pcluster-update-cluster-v3.md#update-policy-fail-v3)

# `SharedStorage` Abschnitt
<a name="SharedStorage-v3"></a>

**(Optional)** Die Einstellungen für den gemeinsam genutzten Speicher für den Cluster.

AWS ParallelCluster [unterstützt entweder die Verwendung von [Amazon EBS](https://docs.aws.amazon.com/AWSEC2/latest/UserGuide/AmazonEBS.html), [FSx für ONTAP](https://docs.aws.amazon.com/fsx/latest/ONTAPGuide/what-is-fsx-ontap.html) und [FSx für OpenZFS](https://docs.aws.amazon.com/fsx/latest/OpenZFSGuide/what-is-fsx.html) Shared Storage Volumes, [Amazon EFS](https://docs.aws.amazon.com/efs/latest/ug/whatisefs.html) und [FSx für Lustre](https://docs.aws.amazon.com/fsx/latest/LustreGuide/what-is.html) Shared Storage-Dateisysteme oder File Caches.](https://docs.aws.amazon.com/fsx/latest/FileCacheGuide/what-is.html)

In `SharedStorage` diesem Abschnitt können Sie entweder externen oder verwalteten Speicher definieren:
+ **Externer Speicher** bezieht sich auf ein vorhandenes Volume oder Dateisystem, das Sie verwalten. AWS ParallelCluster erstellt oder löscht es nicht.
+ **AWS ParallelCluster Verwalteter Speicher** bezieht sich auf ein Volume oder Dateisystem, das AWS ParallelCluster erstellt wurde und gelöscht werden kann.

[Kontingente für gemeinsam genutzten Speicher](shared-storage-quotas-v3.md) und weitere Informationen zur Konfiguration Ihres gemeinsam genutzten Speichers finden Sie [Gemeinsamer Speicher](shared-storage-quotas-integration-v3.md) unter *Verwenden AWS ParallelCluster*.

**Anmerkung**  
Es AWS Batch wird als Scheduler verwendet und ist FSx für Lustre nur auf dem Cluster-Hauptknoten verfügbar.

```
SharedStorage:
  - MountDir: string
    Name: string
    StorageType: Ebs
    EbsSettings:
      VolumeType: string
      Iops: integer
      Size: integer
      Encrypted: boolean
      KmsKeyId: string
      SnapshotId: string
      Throughput: integer
      VolumeId: string
      DeletionPolicy: string
      Raid:
        Type: string
        NumberOfVolumes: integer
  - MountDir: string
    Name: string
    StorageType: Efs
    EfsSettings:
      Encrypted: boolean
      KmsKeyId: string
      EncryptionInTransit: boolean
      IamAuthorization: boolean
      PerformanceMode: string
      ThroughputMode: string
      ProvisionedThroughput: integer
      FileSystemId: string
      DeletionPolicy: string
      AccessPointId: string
  - MountDir: string
    Name: string
    StorageType: FsxLustre
    FsxLustreSettings:
      StorageCapacity: integer
      DeploymentType: string
      ImportedFileChunkSize: integer
      DataCompressionType: string
      ExportPath: string
      ImportPath: string
      WeeklyMaintenanceStartTime: string
      AutomaticBackupRetentionDays: integer
      CopyTagsToBackups: boolean
      DailyAutomaticBackupStartTime: string
      PerUnitStorageThroughput: integer
      BackupId: string
      KmsKeyId: string
      FileSystemId: string
      AutoImportPolicy: string
      DriveCacheType: string
      StorageType: string
      DeletionPolicy: string
      DataRepositoryAssociations:
      - Name: string
        BatchImportMetaDataOnCreate: boolean
        DataRepositoryPath: string
        FileSystemPath: string
        ImportedFileChunkSize: integer
        AutoExportPolicy: string
        AutoImportPolicy: string
  - MountDir: string
    Name: string
    StorageType: FsxOntap
    FsxOntapSettings:
      VolumeId: string
  - MountDir: string
    Name: string
    StorageType: FsxOpenZfs
    FsxOpenZfsSettings:
      VolumeId: string
  - MountDir: string
    Name: string
    StorageType: FileCache
    FileCacheSettings:
      FileCacheId: string
```

## `SharedStorage`Richtlinien aktualisieren
<a name="SharedStorage-v3.update-policies"></a>
+ Für managed/external EBS, Managed EFS und Managed FSx Lustre lautet die Aktualisierungsrichtlinie [Richtlinie aktualisieren: Für diese Einstellung mit Listenwerten muss die Rechenflotte gestoppt oder QueueUpdateStrategyso eingestellt werden, dass sie einen neuen Wert hinzufügt. Die Rechenflotte muss gestoppt werden, wenn ein vorhandener Wert entfernt wird.](using-pcluster-update-cluster-v3.md#update-policy-update-cluster-v3)
+ Für externes EFS, FSx Lustre, FSx ONTAP FSx OpenZfs und File Cache lautet die Aktualisierungsrichtlinie: [Aktualisierungsrichtlinie: Diese Einstellung kann während eines Updates geändert werden.](using-pcluster-update-cluster-v3.md#update-policy-setting-supported-v3)

## `SharedStorage`-Eigenschaften
<a name="SharedStorage-v3.properties"></a>

`MountDir`(**Erforderlich**,) `String`  
Der Pfad, in dem der gemeinsam genutzte Speicher bereitgestellt wird.  
[Aktualisierungsrichtlinie: Wenn diese Einstellung geändert wird, ist das Update nicht zulässig.](using-pcluster-update-cluster-v3.md#update-policy-fail-v3)

`Name`(**Erforderlich**,`String`)  
Der Name des gemeinsam genutzten Speichers. Sie verwenden diesen Namen, wenn Sie die Einstellungen aktualisieren.  
Wenn Sie AWS ParallelCluster verwalteten gemeinsamen Speicher angeben und den Wert für ändern`Name`, werden der vorhandene verwaltete gemeinsame Speicher und die Daten gelöscht und ein neuer verwalteter gemeinsam genutzter Speicher erstellt. Das Ändern des Werts für `Name` mit einem Cluster-Update entspricht dem Ersetzen des vorhandenen verwalteten gemeinsam genutzten Speichers durch einen neuen. Stellen Sie sicher, dass Sie Ihre Daten sichern, bevor Sie Änderungen vornehmen, `Name` falls Sie die Daten aus dem vorhandenen gemeinsam genutzten Speicher behalten müssen.
[Richtlinie aktualisieren: Für diese Einstellung mit Listenwerten muss die Rechenflotte gestoppt oder QueueUpdateStrategyso eingestellt werden, dass sie einen neuen Wert hinzufügt. Die Rechenflotte muss gestoppt werden, wenn ein vorhandener Wert entfernt wird.](using-pcluster-update-cluster-v3.md#update-policy-update-cluster-v3)

`StorageType`(**Erforderlich**,`String`)  
Der Typ des gemeinsam genutzten Speichers. Unterstützte Werte sind `Ebs``Efs`,`FsxLustre`,`FsxOntap`, und`FsxOpenZfs`.  
Weitere Informationen finden Sie unter [`FsxLustreSettings`](#SharedStorage-v3-FsxLustreSettings), [`FsxOntapSettings`](#SharedStorage-v3-FsxOntapSettings) und [`FsxOpenZfsSettings`](#SharedStorage-v3-FsxOpenZfsSettings).  
Wenn Sie es AWS Batch als Scheduler verwenden, ist FSx for Lustre nur auf dem Cluster-Hauptknoten verfügbar.
[Aktualisierungsrichtlinie: Wenn diese Einstellung geändert wird, ist das Update nicht zulässig.](using-pcluster-update-cluster-v3.md#update-policy-fail-v3)

## `EbsSettings`
<a name="SharedStorage-v3-EbsSettings"></a>

**(Optional)** Die Einstellungen für ein Amazon EBS-Volume.

```
EbsSettings:
  VolumeType: string
  Iops: integer
  Size: integer
  Encrypted: boolean
  KmsKeyId: string
  SnapshotId: string
  VolumeId: string
  Throughput: integer
  DeletionPolicy: string
  Raid:
    Type: string
    NumberOfVolumes: integer
```

[Aktualisierungsrichtlinie: Wenn diese Einstellung geändert wird, ist das Update nicht zulässig.](using-pcluster-update-cluster-v3.md#update-policy-fail-v3)

### `EbsSettings`-Eigenschaften
<a name="SharedStorage-v3-EbsSettings.properties"></a>

Wenn der [DeletionPolicy](#yaml-SharedStorage-EbsSettings-DeletionPolicy)Wert auf gesetzt ist`Delete`, wird ein verwaltetes Volume mit seinen Daten gelöscht, wenn der Cluster gelöscht wird oder wenn das Volume mit einem Cluster-Update entfernt wird. 

Weitere Informationen finden Sie [Gemeinsamer Speicher](shared-storage-quotas-integration-v3.md) unter *Verwenden AWS ParallelCluster*.

`VolumeType`(**Fakultativ**,`String`)  
Gibt den [Amazon EBS-Volumetyp](https://docs.aws.amazon.com/AWSEC2/latest/UserGuide/EBSVolumeTypes.html) an. Unterstützte Werte sind `gp2``gp3`,`io1`,`io2`, `sc1``st1`, und`standard`. Der Standardwert ist `gp3`.  
Weitere Informationen finden Sie unter [Amazon EBS-Volume-Typen](https://docs.aws.amazon.com/AWSEC2/latest/UserGuide/EBSVolumeTypes.html) im *Amazon EC2-Benutzerhandbuch*.  
[Aktualisierungsrichtlinie: Wenn diese Einstellung geändert wird, ist das Update nicht zulässig.](using-pcluster-update-cluster-v3.md#update-policy-fail-v3)

`Iops`(**Fakultativ**,`Integer`)  
Definiert die Anzahl der IOPS für Volumes `gp3` vom Typ `io1``io2`, und.  
Der Standardwert, die unterstützten Werte und das `volume_size` Verhältnis `volume_iops` zum Verhältnis variieren je nach `VolumeType` und`Size`.    
`VolumeType` = `io1`  
Standard `Iops` = 100  
Unterstützte Werte `Iops` = 100—64000 †  
Maximales `volume_iops` `volume_size` Verhältnis = 50 IOPS für jedes GiB. 5000 IOPS erfordern einen Wert `volume_size` von mindestens 100 GiB.  
`VolumeType` = `io2`  
Standard `Iops` = 100  
Unterstützte Werte `Iops` = 100—64000 (256000 für `io2` Block Express-Volumes) †  
Maximales `Iops` `Size` Verhältnis = 500 IOPS für jedes GiB. 5000 IOPS erfordern einen Wert `Size` von mindestens 10 GiB.  
`VolumeType` = `gp3`  
Standard `Iops` = 3000  
Unterstützte Werte `Iops` = 3000—16000  
Maximales `Iops` `Size` Verhältnis = 500 IOPS für jedes GiB. 5000 IOPS erfordern einen Wert `Size` von mindestens 10 GiB.
† Maximale IOPS wird nur für [Instances garantiert, die auf dem Nitro-System basieren](https://docs.aws.amazon.com/AWSEC2/latest/UserGuide/instance-types.html#ec2-nitro-instances) und mit mehr als 32.000 IOPS ausgestattet sind. Andere Instanzen garantieren bis zu 32.000 IOPS. Wenn Sie [das Volume nicht ändern](https://docs.aws.amazon.com/AWSEC2/latest/UserGuide/ebs-modify-volume.html), erreichen frühere `io1` Volumes möglicherweise nicht die volle Leistung. `io2` Block Express-Volumes unterstützen `volume_iops` Werte bis zu 256000 für `R5b` Instance-Typen. Weitere Informationen finden Sie unter [`io2`Block Express-Volumes](https://docs.aws.amazon.com/AWSEC2/latest/UserGuide/ebs-volume-types.html#io2-block-express) im *Amazon EC2 EC2-Benutzerhandbuch*.  
[Aktualisierungsrichtlinie: Diese Einstellung kann während eines Updates geändert werden.](using-pcluster-update-cluster-v3.md#update-policy-setting-supported-v3)

`Size`(**Fakultativ**,`Integer`)  
Gibt die Datenträgergröße in Gibibytes (GiB) an. Der Standardwert ist 35.   
[Aktualisierungsrichtlinie: Wenn diese Einstellung geändert wird, ist das Update nicht zulässig.](using-pcluster-update-cluster-v3.md#update-policy-fail-v3)

`Encrypted`(**Fakultativ**,`Boolean`)  
Gibt an, ob das Volume verschlüsselt ist. Der Standardwert ist `true`.  
[Aktualisierungsrichtlinie: Wenn diese Einstellung geändert wird, ist das Update nicht zulässig.](using-pcluster-update-cluster-v3.md#update-policy-fail-v3)

`KmsKeyId`(**Fakultativ**,`String`)  
Gibt einen benutzerdefinierten AWS KMS Schlüssel an, der für die Verschlüsselung verwendet werden soll. Diese Einstellung setzt voraus, dass die `Encrypted` Einstellung auf gesetzt ist`true`.  
[Aktualisierungsrichtlinie: Wenn diese Einstellung geändert wird, ist das Update nicht zulässig.](using-pcluster-update-cluster-v3.md#update-policy-fail-v3)

`SnapshotId`(**Optional**,`String`)  
Gibt die Amazon EBS-Snapshot-ID an, wenn Sie einen Snapshot als Quelle für das Volume verwenden.  
[Aktualisierungsrichtlinie: Wenn diese Einstellung geändert wird, ist das Update nicht zulässig.](using-pcluster-update-cluster-v3.md#update-policy-fail-v3)

`VolumeId`(**Optional**,`String`)  
Gibt die Amazon EBS-Volume-ID an. Wenn dies für eine `EbsSettings` Instance angegeben wird, kann auch nur der `MountDir` Parameter angegeben werden.  
Das Volume muss in derselben Availability Zone wie das erstellt werden`HeadNode`.  
In AWS ParallelCluster Version 3.4.0 wurden mehrere Availability Zones hinzugefügt.
[Aktualisierungsrichtlinie: Wenn diese Einstellung geändert wird, ist das Update nicht zulässig.](using-pcluster-update-cluster-v3.md#update-policy-fail-v3)

`Throughput`(**Fakultativ**,`Integer`)  
Der Durchsatz, MiB/s bis zur Bereitstellung für ein Volumen, mit einem Maximum von 1.000 MiB/s.  
Diese Einstellung ist nur gültig, wenn sie `VolumeType` ist. `gp3` Der unterstützte Bereich liegt zwischen 125 und 1000, der Standardwert ist 125.  
[Aktualisierungsrichtlinie: Diese Einstellung kann während eines Updates geändert werden.](using-pcluster-update-cluster-v3.md#update-policy-setting-supported-v3)

`DeletionPolicy`(**Optional**,`String`)  
Gibt an, ob das Volume beibehalten, gelöscht oder als Snapshot erstellt werden soll, wenn der Cluster gelöscht oder das Volume entfernt wird. Die unterstützten Werte sind `Delete``Retain`, und. `Snapshot` Der Standardwert ist `Delete`.  
Wenn die [DeletionPolicy](#yaml-SharedStorage-EbsSettings-DeletionPolicy)Einstellung auf gesetzt ist`Delete`, wird ein verwaltetes Volume mit seinen Daten gelöscht, wenn der Cluster gelöscht wird oder wenn das Volume mit einem Cluster-Update entfernt wird.  
Weitere Informationen finden Sie unter [Gemeinsamer Speicher](shared-storage-quotas-integration-v3.md).  
[Aktualisierungsrichtlinie: Diese Einstellung kann während eines Updates geändert werden.](using-pcluster-update-cluster-v3.md#update-policy-setting-supported-v3)  
`DeletionPolicy`wird ab AWS ParallelCluster Version 3.2.0 unterstützt.

### `Raid`
<a name="SharedStorage-v3-EbsSettings-Raid"></a>

**(Optional)** Definiert die Konfiguration eines RAID-Volumes.

```
Raid:
  Type: string
  NumberOfVolumes: integer
```

[Aktualisierungsrichtlinie: Wenn diese Einstellung geändert wird, ist das Update nicht zulässig.](using-pcluster-update-cluster-v3.md#update-policy-fail-v3)

#### `Raid`-Eigenschaften
<a name="SharedStorage-v3-EbsSettings-Raid.properties"></a>

`Type`(**Erforderlich**,`String`)  
Definiert den Typ des RAID-Arrays. Unterstützte Werte sind „0" (gestreift) und „1" (gespiegelt).  
[Aktualisierungsrichtlinie: Wenn diese Einstellung geändert wird, ist das Update nicht zulässig.](using-pcluster-update-cluster-v3.md#update-policy-fail-v3)

`NumberOfVolumes`**(Optional,)** `Integer`  
Definiert die Anzahl der Amazon EBS-Volumes, die zur Erstellung des RAID-Arrays verwendet werden sollen. Der unterstützte Wertebereich liegt zwischen 2 und 5. Der Standardwert (wenn die `Raid` Einstellung definiert ist) ist 2.  
[Aktualisierungsrichtlinie: Wenn diese Einstellung geändert wird, ist das Update nicht zulässig.](using-pcluster-update-cluster-v3.md#update-policy-fail-v3)

## `EfsSettings`
<a name="SharedStorage-v3-EfsSettings"></a>

**(Optional)** Die Einstellungen für ein Amazon EFS-Dateisystem.

```
EfsSettings:
  Encrypted: boolean
  KmsKeyId: string
  EncryptionInTransit: boolean
  IamAuthorization: boolean
  PerformanceMode: string
  ThroughputMode: string
  ProvisionedThroughput: integer
  FileSystemId: string
  DeletionPolicy: string
  AccessPointId: string
```

[Aktualisierungsrichtlinie: Wenn diese Einstellung geändert wird, ist das Update nicht zulässig.](using-pcluster-update-cluster-v3.md#update-policy-fail-v3)

### `EfsSettings`-Eigenschaften
<a name="SharedStorage-v3-EfsSettings.properties"></a>

Bei [DeletionPolicy](#yaml-SharedStorage-EfsSettings-DeletionPolicy)Einstellung auf `Delete` wird ein verwaltetes Dateisystem mit seinen Daten gelöscht, wenn der Cluster gelöscht wird oder wenn das Dateisystem mit einem Cluster-Update entfernt wird.

Weitere Informationen finden Sie [Gemeinsamer Speicher](shared-storage-quotas-integration-v3.md) unter *Verwenden AWS ParallelCluster*.

`Encrypted`(**Fakultativ**,`Boolean`)  
Gibt an, ob das Amazon EFS-Dateisystem verschlüsselt ist. Der Standardwert ist `false`.  
[Aktualisierungsrichtlinie: Wenn diese Einstellung geändert wird, ist das Update nicht zulässig.](using-pcluster-update-cluster-v3.md#update-policy-fail-v3)

`KmsKeyId`(**Optional**,`String`)  
Gibt einen benutzerdefinierten AWS KMS Schlüssel an, der für die Verschlüsselung verwendet werden soll. Diese Einstellung setzt voraus, dass die `Encrypted` Einstellung auf gesetzt ist`true`.  
[Aktualisierungsrichtlinie: Wenn diese Einstellung geändert wird, ist das Update nicht zulässig.](using-pcluster-update-cluster-v3.md#update-policy-fail-v3)

`EncryptionInTransit`(**Optional**,`Boolean`)  
Wenn auf gesetzt`true`, werden Amazon EFS-Dateisysteme mit Transport Layer Security (TLS) bereitgestellt. Standardmäßig ist dies auf eingestellt`false`.  
 AWS Batch Wird als Scheduler verwendet, wird `EncryptionInTransit` nicht unterstützt.
`EncryptionInTransit`wird ab AWS ParallelCluster Version 3.4.0 hinzugefügt.
[Aktualisierungsrichtlinie: Wenn diese Einstellung geändert wird, ist das Update nicht zulässig.](using-pcluster-update-cluster-v3.md#update-policy-fail-v3)

`IamAuthorization`(**Fakultativ**,`Boolean`)  
`IamAuthorization`wird ab AWS ParallelCluster Version 3.4.0 hinzugefügt.  
Wenn auf gesetzt`true`, wird Amazon EFS mithilfe der IAM-Identität des Systems authentifiziert. Standardmäßig ist dies auf eingestellt. `false`  
Wenn `IamAuthorization` auf `true` festgelegt ist, muss `EncryptionInTransit` auch auf `true` festgelegt werden.
 AWS Batch Wird als Scheduler verwendet, wird `IamAuthorization` nicht unterstützt.
[Aktualisierungsrichtlinie: Wenn diese Einstellung geändert wird, ist das Update nicht zulässig.](using-pcluster-update-cluster-v3.md#update-policy-fail-v3)

`PerformanceMode`(**Fakultativ**,`String`)  
Gibt den Leistungsmodus des Amazon EFS-Dateisystems an. Unterstützte Werte sind `generalPurpose` und `maxIO`. Der Standardwert ist `generalPurpose`. Weitere Informationen finden Sie unter [ Leistungsmodi](https://docs.aws.amazon.com/efs/latest/ug/performance.html#performancemodes) im *Benutzerhandbuch zu Amazon Elastic File System*.  
Wir empfehlen den `generalPurpose`-Leistungsmodus für die meisten Dateisysteme.  
Dateisysteme, die den `maxIO`-Leistungsmodus verwenden, können auf einen höheren Gesamtdurchsatz und mehr Vorgänge pro Sekunde skalieren. Bei den meisten Dateioperationen gibt es jedoch einen Kompromiss zwischen etwas höheren Latenzen.  
[Aktualisierungsrichtlinie: Wenn diese Einstellung geändert wird, ist das Update nicht zulässig.](using-pcluster-update-cluster-v3.md#update-policy-fail-v3)

`ThroughputMode`**(Fakultativ,)** `String`  
Gibt den Durchsatzmodus des Amazon EFS-Dateisystems an. Unterstützte Werte sind `bursting` und `provisioned`. Der Standardwert ist `bursting`. Wann verwendet `provisioned` wird, `ProvisionedThroughput` muss angegeben werden.  
[Aktualisierungsrichtlinie: Diese Einstellung kann während eines Updates geändert werden.](using-pcluster-update-cluster-v3.md#update-policy-setting-supported-v3)

`ProvisionedThroughput`(**Erforderlich**, wenn `ThroughputMode` ist`provisioned`,`Integer`)  
Definiert den bereitgestellten Durchsatz (inMiB/s) of the Amazon EFS file system, measured in MiB/s. Dies entspricht dem [ProvisionedThroughputInMibps](https://docs.aws.amazon.com/efs/latest/ug/API_CreateFileSystem.html#efs-CreateFileSystem-response-ProvisionedThroughputInMibps)Parameter in der *Amazon EFS API-Referenz*.  
Wenn Sie diesen Parameter verwenden, müssen Sie `ThroughputMode` auf `provisioned` einstellen.  
Der unterstützte Bereich ist `1` -`1024`. Um eine Erhöhung des Limits zu beantragen, wenden Sie sich an Support.  
[Aktualisierungsrichtlinie: Diese Einstellung kann während eines Updates geändert werden.](using-pcluster-update-cluster-v3.md#update-policy-setting-supported-v3)

`FileSystemId`(**Fakultativ**,`String`)  
Definiert die Amazon EFS-Dateisystem-ID für ein vorhandenes Dateisystem.  
Wenn der Cluster so konfiguriert ist, dass er sich über mehrere Availability Zones erstreckt, müssen Sie in jeder Availability Zone, die vom Cluster verwendet wird, ein Dateisystem-Mount-Ziel definieren.  
Wenn dies angegeben ist, `MountDir` kann nur angegeben werden. Es `EfsSettings` kann kein anderer angegeben werden.  

**Wenn Sie diese Option festlegen, muss Folgendes für die von Ihnen definierten Dateisysteme gelten:**
+ Die Dateisysteme verfügen über ein vorhandenes Mount-Ziel in jeder Availability Zones des Clusters, wobei eingehender und ausgehender NFS-Verkehr von und aus zulässig ist. `HeadNode` `ComputeNodes` [In [Scheduling](Scheduling-v3.md)//Networking [SlurmQueues](Scheduling-v3.md#Scheduling-v3-SlurmQueues)/werden mehrere Availability Zones konfiguriert. [SubnetIds](Scheduling-v3.md#yaml-Scheduling-SlurmQueues-Networking-SubnetIds)](Scheduling-v3.md#Scheduling-v3-SlurmQueues-Networking)

  

**Um sicherzustellen, dass Datenverkehr zwischen dem Cluster und dem Dateisystem zulässig ist, können Sie einen der folgenden Schritte ausführen:**
  + Konfigurieren Sie die Sicherheitsgruppen des Mount-Ziels so, dass der Datenverkehr zum und vom CIDR oder der Präfixliste der Cluster-Subnetze zugelassen wird.
**Anmerkung**  
AWS ParallelCluster überprüft, ob die Ports geöffnet sind und ob die CIDR- oder Präfixliste konfiguriert ist. AWS ParallelCluster validiert den Inhalt der CIDR-Block- oder Präfixliste nicht.
  + Legen Sie mithilfe von/[`SecurityGroups`](Scheduling-v3.md#yaml-Scheduling-SlurmQueues-Networking-SecurityGroups)und [`SlurmQueues`[`HeadNode`](HeadNode-v3.md)](Scheduling-v3.md#Scheduling-v3-SlurmQueues)/[`Networking`](Scheduling-v3.md#Scheduling-v3-SlurmQueues-Networking)/benutzerdefinierte Sicherheitsgruppen für Clusterknoten fest. [`Networking`[`SecurityGroups`](HeadNode-v3.md#yaml-HeadNode-Networking-SecurityGroups)](HeadNode-v3.md#HeadNode-v3-Networking) Die benutzerdefinierten Sicherheitsgruppen müssen so konfiguriert werden, dass sie den Datenverkehr zwischen dem Cluster und dem Dateisystem zulassen.
**Anmerkung**  
Wenn alle Clusterknoten benutzerdefinierte Sicherheitsgruppen verwenden, wird AWS ParallelCluster nur überprüft, ob die Ports geöffnet sind. AWS ParallelCluster überprüft nicht, ob Quelle und Ziel richtig konfiguriert sind.
EFS OneZone wird nur unterstützt, wenn sich alle Rechenknoten und der Hauptknoten in derselben Availability Zone befinden. EFS OneZone kann nur ein Mount-Ziel haben.
In AWS ParallelCluster Version 3.4.0 wurden mehrere Availability Zones hinzugefügt.
[Aktualisierungsrichtlinie: Wenn diese Einstellung geändert wird, ist das Update nicht zulässig.](using-pcluster-update-cluster-v3.md#update-policy-fail-v3)

`DeletionPolicy`(**Fakultativ**,`String`)  
Gibt an, ob das Dateisystem beibehalten oder gelöscht werden soll, wenn das Dateisystem aus dem Cluster entfernt oder der Cluster gelöscht wird. Die unterstützten Werte sind `Delete` und `Retain`. Der Standardwert ist `Delete`.  
Wenn auf gesetzt [DeletionPolicy](#yaml-SharedStorage-EfsSettings-DeletionPolicy)ist`Delete`, wird ein verwaltetes Dateisystem mit seinen Daten gelöscht, wenn der Cluster gelöscht wird oder wenn das Dateisystem mit einem Cluster-Update entfernt wird.  
Weitere Informationen finden Sie unter [Gemeinsamer Speicher](shared-storage-quotas-integration-v3.md).  
[Aktualisierungsrichtlinie: Diese Einstellung kann während eines Updates geändert werden.](using-pcluster-update-cluster-v3.md#update-policy-setting-supported-v3)  
`DeletionPolicy`wird ab AWS ParallelCluster Version 3.3.0 unterstützt.

`AccessPointId`(**Fakultativ**,`String`)  
Falls diese Option angegeben ist, `access point ID` wird der durch das definierte Dateisystem-Einstiegspunkt eingehängt und nicht das Dateisystem-Stammverzeichnis.  
Weitere Informationen finden Sie unter [Gemeinsamer Speicher](shared-storage-quotas-integration-v3.md).  
[Aktualisierungsrichtlinie: Wenn diese Einstellung geändert wird, ist das Update nicht zulässig.](using-pcluster-update-cluster-v3.md#update-policy-fail-v3)

## `FsxLustreSettings`
<a name="SharedStorage-v3-FsxLustreSettings"></a>

**Anmerkung**  
Sie müssen definieren, `FsxLustreSettings` ob für angegeben `FsxLustre` ist. [`StorageType`](#yaml-SharedStorage-StorageType)

**(Optional)** Die Einstellungen für ein FSx for Lustre-Dateisystem.

```
FsxLustreSettings:
  StorageCapacity: integer
  DeploymentType: string
  ImportedFileChunkSize: integer
  DataCompressionType: string
  ExportPath: string
  ImportPath: string
  WeeklyMaintenanceStartTime: string
  AutomaticBackupRetentionDays: integer
  CopyTagsToBackups: boolean
  DailyAutomaticBackupStartTime: string
  PerUnitStorageThroughput: integer
  BackupId: string # BackupId cannot coexist with some of the fields
  KmsKeyId: string
  FileSystemId: string # FileSystemId cannot coexist with other fields
  AutoImportPolicy: string
  DriveCacheType: string
  StorageType: string
  DeletionPolicy: string
```

[Aktualisierungsrichtlinie: Wenn diese Einstellung geändert wird, ist das Update nicht zulässig.](using-pcluster-update-cluster-v3.md#update-policy-fail-v3)

**Anmerkung**  
Es AWS Batch wird als Scheduler verwendet und ist FSx für Lustre nur auf dem Cluster-Hauptknoten verfügbar.

### `FsxLustreSettings`-Eigenschaften
<a name="SharedStorage-v3-FsxLustreSettings.properties"></a>

Wenn der [DeletionPolicy](#yaml-SharedStorage-FsxLustreSettings-DeletionPolicy)Wert auf gesetzt ist`Delete`, wird ein verwaltetes Dateisystem mit seinen Daten gelöscht, wenn der Cluster gelöscht wird oder wenn das Dateisystem mit einem Cluster-Update entfernt wird.

Weitere Informationen finden Sie unter [Gemeinsamer Speicher](shared-storage-quotas-integration-v3.md).

`StorageCapacity`(**Erforderlich**,`Integer`)  
Legt die Speicherkapazität des FSx for Lustre-Dateisystems in GiB fest. `StorageCapacity`ist erforderlich, wenn Sie ein neues Dateisystem erstellen. Geben Sie nicht an`StorageCapacity`, ob `BackupId` oder angegeben `FileSystemId` ist.  
+ Gültige Werte für `SCRATCH_2``PERSISTENT_1`, und `PERSISTENT_2` Bereitstellungstypen sind 1200 GiB, 2400 GiB und Inkremente von 2400 GiB.
+ Für den `SCRATCH_1`-Bereitstellungstyp lauten die gültigen Werte 1200 GiB, 2400 GiB sowie Inkremente von 3600 GiB.
[Aktualisierungsrichtlinie: Wenn diese Einstellung geändert wird, ist das Update nicht zulässig.](using-pcluster-update-cluster-v3.md#update-policy-fail-v3)

`DeploymentType`(**Optional**,`String`)  
Gibt den Bereitstellungstyp des FSx for Lustre-Dateisystems an. Unterstützte Werte sind `SCRATCH_1`, `SCRATCH_2`, `PERSISTENT_1` und `PERSISTENT_2`. Der Standardwert ist `SCRATCH_2`.  
Wählen Sie `SCRATCH_1` `SCRATCH_2` Bereitstellungstypen aus, wenn Sie temporären Speicher und eine kurzfristigere Verarbeitung von Daten benötigen. Der `SCRATCH_2` Bereitstellungstyp bietet Verschlüsselung von Daten bei der Übertragung und eine höhere Burst-Durchsatzkapazität als`SCRATCH_1`.  
Wählen Sie den `PERSISTENT_1` Bereitstellungstyp für längerfristige Speicherung und für durchsatzorientierte Workloads, die nicht latenzempfindlich sind. `PERSISTENT_1`unterstützt die Verschlüsselung von Daten während der Übertragung. Es ist überall verfügbar AWS-Regionen , wo FSx For Lustre verfügbar ist.  
Wählen Sie den `PERSISTENT_2` Bereitstellungstyp für längerfristige Speicherung und für latenzempfindliche Workloads, die ein Höchstmaß an IOPS und Durchsatz erfordern. `PERSISTENT_2`unterstützt SSD-Speicher und bietet mehr `PerUnitStorageThroughput` (bis zu 1000 MB/s/TiB). `PERSISTENT_2`ist in einer begrenzten Anzahl von erhältlich. AWS-Regionen Weitere Informationen zu Bereitstellungstypen und eine Liste der verfügbaren AWS-Regionen `PERSISTENT_2` Bereitstellungsarten finden Sie unter [Dateisystem-Bereitstellungsoptionen FSx für Lustre](https://docs.aws.amazon.com/fsx/latest/LustreGuide/using-fsx-lustre.html#lustre-deployment-types) im *Amazon FSx for Lustre-Benutzerhandbuch*.  
Die Verschlüsselung von Daten während der Übertragung wird automatisch aktiviert`SCRATCH_2`, wenn Sie über Amazon EC2 EC2-Instances`PERSISTENT_1`, die [diese Funktion](https://docs.aws.amazon.com/AWSEC2/latest/UserGuide/data-protection.html) unterstützen, auf Dateisysteme vom Typ `PERSISTENT_2` Deployment zugreifen.  
Die Verschlüsselung von Daten während der Übertragung für `SCRATCH_2``PERSISTENT_1`, und `PERSISTENT_2` Bereitstellungstypen wird unterstützt, wenn auf sie über unterstützte Instance-Typen zugegriffen wird AWS-Regionen. Weitere Informationen finden Sie unter [Verschlüsseln von Daten bei der Übertragung](https://docs.aws.amazon.com/fsx/latest/LustreGuide/encryption-in-transit-fsxl.html) im *Amazon FSx for Lustre-Benutzerhandbuch*.  
Support für den `PERSISTENT_2` Bereitstellungstyp wurde mit AWS ParallelCluster Version 3.2.0 hinzugefügt.
[Aktualisierungsrichtlinie: Wenn diese Einstellung geändert wird, ist das Update nicht zulässig.](using-pcluster-update-cluster-v3.md#update-policy-fail-v3)

`ImportedFileChunkSize`(**Fakultativ**,`Integer`)  
Für Dateien, die aus einem Datenrepository importiert werden, bestimmt dieser Wert die Stripe-Anzahl und die maximale Datenmenge für jede Datei (in MiB), die auf einer einzelnen physischen Festplatte gespeichert ist. Die maximale Anzahl von Datenträgern, über die eine einzelne Datei als Stripeset zugeordnet werden kann, ist durch die Gesamtzahl der Datenträger begrenzt, aus denen sich das Dateisystem zusammensetzt.  
Die Standard-Chunk-Größe ist 1.024 MiB (1 GiB) und kann bis auf 512.000 MiB (500 GiB) steigen. Amazon S3-Objekte haben eine maximale Größe von 5 TB.  
Dieser Parameter wird für Dateisysteme, die den `PERSISTENT_2` Bereitstellungstyp verwenden, nicht unterstützt. Anweisungen zur Konfiguration von Datenrepository-Verknüpfungen finden Sie unter [Verknüpfen Ihres Dateisystems mit einem S3-Bucket](https://docs.aws.amazon.com/fsx/latest/LustreGuide/create-dra-linked-data-repo.html) im *Amazon FSx for Lustre-Benutzerhandbuch*.
[Aktualisierungsrichtlinie: Wenn diese Einstellung geändert wird, ist das Update nicht zulässig.](using-pcluster-update-cluster-v3.md#update-policy-fail-v3)

`DataCompressionType`(**Optional**,) `String`  
Legt die Datenkomprimierungskonfiguration für das FSx for Lustre-Dateisystem fest. Der unterstützte Wert ist`LZ4`. `LZ4`gibt an, dass die Datenkomprimierung mit dem LZ4 Algorithmus aktiviert ist. Wenn `DataCompressionType` nicht angegeben, wird die Datenkomprimierung ausgeschaltet, wenn das Dateisystem erstellt wird.  
Weitere Informationen finden Sie unter [Lustre-Datenkomprimierung](https://docs.aws.amazon.com/fsx/latest/LustreGuide/data-compression.html).  
[Aktualisierungsrichtlinie: Diese Einstellung kann während eines Updates geändert werden.](using-pcluster-update-cluster-v3.md#update-policy-setting-supported-v3)

`ExportPath`(**Fakultativ**,`String`)  
Der Pfad in Amazon S3, in den das Stammverzeichnis Ihres FSx for Lustre-Dateisystems exportiert wird. Diese Einstellung wird nur unterstützt, wenn der `ImportPath` Parameter angegeben ist. Der Pfad muss denselben Amazon S3 S3-Bucket verwenden, wie unter angegeben`ImportPath`. Sie können ein optionales Präfix angeben, in das neue und geänderte Daten aus Ihrem FSx for Lustre-Dateisystem exportiert werden sollen. Wenn kein `ExportPath` Wert angegeben wird, legt FSx für Lustre einen Standardexportpfad fest. `s3://amzn-s3-demo-bucket/FSxLustre[creation-timestamp]` Der Zeitstempel weist das UTC-Format auf, z. B. `s3://amzn-s3-demo-bucket/FSxLustre20181105T222312Z`.  
Der Amazon S3-Export-Bucket muss derselbe sein, wie der Import-Bucket, der von `ImportPath` angegeben wurde. Wenn Sie nur einen Bucket-Namen angeben, z. B. `s3://amzn-s3-demo-bucket` erhalten Sie eine 1:1 -Zuordnung von Dateisystemobjekten zu Amazon S3 S3-Bucket-Objekten. Diese Zuordnung bedeutet, dass die Eingabedaten in Amazon S3 beim Export überschrieben werden. Wenn Sie im Exportpfad ein benutzerdefiniertes Präfix angeben, z. B. `s3://amzn-s3-demo-bucket/[custom-optional-prefix]` wenn Lustre den Inhalt Ihres Dateisystems in dieses Exportpräfix im Amazon S3 S3-Bucket exportiert. FSx   
Dieser Parameter wird für Dateisysteme, die den `PERSISTENT_2` Bereitstellungstyp verwenden, nicht unterstützt. Konfigurieren Sie Datenrepository-Verknüpfungen wie unter [Verknüpfen Ihres Dateisystems mit einem S3-Bucket](https://docs.aws.amazon.com/fsx/latest/LustreGuide/create-dra-linked-data-repo.html) im *Amazon FSx for Lustre-Benutzerhandbuch* beschrieben.
[Aktualisierungsrichtlinie: Wenn diese Einstellung geändert wird, ist das Update nicht zulässig.](using-pcluster-update-cluster-v3.md#update-policy-fail-v3)

`ImportPath`(**Optional**,) `String`  
Der Pfad zum Amazon S3 S3-Bucket (einschließlich des optionalen Präfixes), den Sie als Daten-Repository für Ihr FSx for Lustre-Dateisystem verwenden. Das Stammverzeichnis Ihres FSx for Lustre-Dateisystems wird dem Stammverzeichnis des von Ihnen ausgewählten Amazon S3 S3-Buckets zugeordnet. Ein Beispiel ist `s3://amzn-s3-demo-bucket/optional-prefix`. Wenn Sie ein Präfix nach dem Amazon S3-Bucket-Namen angeben, werden nur Objektschlüssel mit diesem Präfix in das Dateisystem geladen.  
Dieser Parameter wird für Dateisysteme, die den `PERSISTENT_2` Bereitstellungstyp verwenden, nicht unterstützt. Konfigurieren Sie Datenrepository-Verknüpfungen wie unter [Verknüpfen Ihres Dateisystems mit einem S3-Bucket](https://docs.aws.amazon.com/fsx/latest/LustreGuide/create-dra-linked-data-repo.html) im *Amazon FSx for Lustre-Benutzerhandbuch* beschrieben.
[Aktualisierungsrichtlinie: Wenn diese Einstellung geändert wird, ist das Update nicht zulässig.](using-pcluster-update-cluster-v3.md#update-policy-fail-v3)

`WeeklyMaintenanceStartTime`(**Optional**,) `String`  
Die bevorzugte Startzeit für wöchentliche Wartungsarbeiten. Sie hat das `"d:HH:MM"` Format der Zeitzone UTC\$10. Bei diesem Format `d` handelt es sich um die Wochentagsnummer von 1 bis 7, die mit Montag beginnt und mit Sonntag endet. Für dieses Feld sind Anführungszeichen erforderlich.  
[Aktualisierungsrichtlinie: Diese Einstellung kann während eines Updates geändert werden.](using-pcluster-update-cluster-v3.md#update-policy-setting-supported-v3)

`AutomaticBackupRetentionDays`(**Fakultativ**,`Integer`)  
Die Anzahl der Tage für die Aufbewahrung automatischer Sicherungen. Wenn Sie diesen Wert auf „0“ festlegen, werden automatische Sicherungen deaktiviert. Der unterstützte Bereich liegt zwischen 0 und 90. Der Standardwert ist 0. Diese Einstellung ist nur für die Verwendung mit `PERSISTENT_1` und für `PERSISTENT_2` Bereitstellungstypen gültig. Weitere Informationen finden Sie unter [Arbeiten mit Backups](https://docs.aws.amazon.com/fsx/latest/LustreGuide/using-backups-fsx.html) im *Amazon FSx for Lustre-Benutzerhandbuch*.  
[Aktualisierungsrichtlinie: Diese Einstellung kann während eines Updates geändert werden.](using-pcluster-update-cluster-v3.md#update-policy-setting-supported-v3)

`CopyTagsToBackups`(**Optional**,`Boolean`)  
Wenn`true`, kopieren Sie die Tags für das FSx for Lustre-Dateisystem in Backups. Dieser Wert ist standardmäßig `false`. Wenn er auf `true` festgelegt ist, werden alle Tags für das Dateisystem in alle automatischen und vom Benutzer angeordneten Backups kopiert, in denen der Benutzer keine Tags angibt. Wenn dieser Wert `true` ist und Sie einen oder mehrere Tags angeben, werden nur die angegebenen Tags in die Sicherungen kopiert. Wenn Sie bei der Erstellung eines vom Benutzer initiierten Backups ein oder mehrere Tags angeben, werden unabhängig von diesem Wert keine Tags aus dem Dateisystem kopiert. Diese Einstellung ist nur für die Verwendung mit `PERSISTENT_1` und für `PERSISTENT_2` Bereitstellungstypen gültig.  
[Aktualisierungsrichtlinie: Wenn diese Einstellung geändert wird, ist das Update nicht zulässig.](using-pcluster-update-cluster-v3.md#update-policy-fail-v3)

`DailyAutomaticBackupStartTime`(**Optional**,`String`)  
Eine sich wiederholende tägliche Uhrzeit im `HH:MM` Format. `HH`ist die mit Nullen aufgefüllte Stunde des Tages (00-23). `MM`ist die mit Nullen aufgefüllte Minute der Stunde (00-59). `05:00`Gibt beispielsweise täglich 5 Uhr morgens an. Diese Einstellung ist nur für die Verwendung mit `PERSISTENT_1` und für `PERSISTENT_2` Bereitstellungstypen gültig.  
[Aktualisierungsrichtlinie: Diese Einstellung kann während eines Updates geändert werden.](using-pcluster-update-cluster-v3.md#update-policy-setting-supported-v3)

`PerUnitStorageThroughput`(**Erforderlich für `PERSISTENT_1` und für `PERSISTENT_2` Bereitstellungstypen**`Integer`)  
Beschreibt die Menge des Lese- und Schreibdurchsatzes für jedes 1 Tebibyte Speicher in MB/s/TiB. Die Durchsatzkapazität des Dateisystems wird berechnet, indem die Dateisystemspeicherkapazität (TiB) mit (von) multipliziert wird, was 120 MB/s/TiB). For a 2.4 TiB ﬁle system, provisioning 50 MB/s/TiB MB/s des Dateisystemdurchsatzes `PerUnitStorageThroughput` ergibt. `PerUnitStorageThroughput` Sie zahlen den Durchsatz, den Sie bereitstellen. Dies entspricht der Eigenschaft. [PerUnitStorageThroughput](https://docs.aws.amazon.com/AWSCloudFormation/latest/UserGuide/aws-properties-fsx-filesystem-lustreconfiguration.html#cfn-fsx-filesystem-lustreconfiguration-perunitstoragethroughput)  
Zulässige Werte:  
+ PERSISTENT\$11 SSD-Speicher: 50, 100, 200 MB/s/TiB.
+ PERSISTENT\$11 Festplattenspeicher: 12, 40 MB/s/TiB.
+ PERSISTENT\$12 SSD-Speicher: 125, 250, 500, 1000 MB/s/TiB.
[Aktualisierungsrichtlinie: Wenn diese Einstellung geändert wird, ist das Update nicht zulässig.](using-pcluster-update-cluster-v3.md#update-policy-fail-v3)

`BackupId`(**`String`Fakultativ**,)  
Gibt die ID der Sicherung an, die verwendet werden soll, um das FSx for Lustre-Dateisystem aus einer vorhandenen Sicherung wiederherzustellen. Wenn die `BackupId` Einstellung angegeben ist, dürfen die `AutoImportPolicy` `PerUnitStorageThroughput` Einstellungen `DeploymentType` `ExportPath``KmsKeyId`,`ImportPath`,`ImportedFileChunkSize`,`StorageCapacity`,, und nicht angegeben werden. Diese Einstellungen werden aus dem Backup gelesen. Darüber hinaus dürfen die `ImportedFileChunkSize` Einstellungen `AutoImportPolicy` `ExportPath``ImportPath`,, und nicht angegeben werden. Dies entspricht der [BackupId](https://docs.aws.amazon.com/AWSCloudFormation/latest/UserGuide/aws-resource-fsx-filesystem.html#cfn-fsx-filesystem-backupid)Eigenschaft.  
[Aktualisierungsrichtlinie: Wenn diese Einstellung geändert wird, ist das Update nicht zulässig.](using-pcluster-update-cluster-v3.md#update-policy-fail-v3)

`KmsKeyId`(**Fakultativ**,`String`)  
Die ID der Schlüssel-ID AWS Key Management Service (AWS KMS), die verwendet wird, um die Daten des FSx for Lustre-Dateisystems für persistente FSx für Lustre-Dateisysteme im Ruhezustand zu verschlüsseln. Falls nicht angegeben, wird der FSx für Lustre verwaltete Schlüssel verwendet. Die Dateisysteme `SCRATCH_1` und `SCRATCH_2` FSx für Lustre werden im Ruhezustand immer mit FSx für Lustre verwalteten Schlüsseln verschlüsselt. *Weitere Informationen finden Sie unter [Verschlüsseln](https://docs.aws.amazon.com//kms/latest/APIReference/API_Encrypt.html) in der AWS Key Management Service API-Referenz.*  
[Aktualisierungsrichtlinie: Wenn diese Einstellung geändert wird, ist das Update nicht zulässig.](using-pcluster-update-cluster-v3.md#update-policy-fail-v3)

`FileSystemId`(**Fakultativ**,`String`)  
Gibt die ID eines FSx für Lustre vorhandenen Dateisystems an.  
Wenn diese Option angegeben ist, werden nur die `FileSystemId` Einstellungen `MountDir` und in `FsxLustreSettings` verwendet. Alle anderen Einstellungen in der `FsxLustreSettings` werden ignoriert.  
Wenn der AWS Batch Scheduler verwendet wird, FSx ist Lustre nur auf dem Hauptknoten verfügbar.
Das Dateisystem muss einer Sicherheitsgruppe zugeordnet sein, die eingehenden und ausgehenden TCP-Verkehr über die Ports 988, 1021, 1022 und 1023 zulässt.
Stellen Sie sicher, dass Datenverkehr zwischen dem Cluster und dem Dateisystem zulässig ist, indem Sie einen der folgenden Schritte ausführen:  
+ Konfigurieren Sie die Sicherheitsgruppen des Dateisystems so, dass der Datenverkehr zum und vom CIDR oder der Präfixliste der Cluster-Subnetze zugelassen wird.
**Anmerkung**  
AWS ParallelCluster überprüft, ob die Ports geöffnet sind und ob die CIDR- oder Präfixliste konfiguriert ist. AWS ParallelCluster validiert den Inhalt der CIDR-Block- oder Präfixliste nicht.
+ Legen Sie mithilfe von/[`SecurityGroups`](Scheduling-v3.md#yaml-Scheduling-SlurmQueues-Networking-SecurityGroups)und [`SlurmQueues`[`HeadNode`](HeadNode-v3.md)](Scheduling-v3.md#Scheduling-v3-SlurmQueues)/[`Networking`](Scheduling-v3.md#Scheduling-v3-SlurmQueues-Networking)/benutzerdefinierte Sicherheitsgruppen für Clusterknoten fest. [`Networking`[`SecurityGroups`](HeadNode-v3.md#yaml-HeadNode-Networking-SecurityGroups)](HeadNode-v3.md#HeadNode-v3-Networking) Die benutzerdefinierten Sicherheitsgruppen müssen so konfiguriert werden, dass sie den Datenverkehr zwischen dem Cluster und dem Dateisystem zulassen.
**Anmerkung**  
Wenn alle Clusterknoten benutzerdefinierte Sicherheitsgruppen verwenden, wird AWS ParallelCluster nur überprüft, ob die Ports geöffnet sind. AWS ParallelCluster überprüft nicht, ob Quelle und Ziel richtig konfiguriert sind.
[Aktualisierungsrichtlinie: Wenn diese Einstellung geändert wird, ist das Update nicht zulässig.](using-pcluster-update-cluster-v3.md#update-policy-fail-v3)

`AutoImportPolicy`(**Optional**,`String`)  
Wenn Sie Ihr FSx for Lustre-Dateisystem erstellen, werden Ihre vorhandenen Amazon S3 S3-Objekte als Datei- und Verzeichnislisten angezeigt. Verwenden Sie diese Eigenschaft, um auszuwählen, wie FSx for Lustre Ihre Datei- und Verzeichnislisten auf dem neuesten Stand hält, wenn Sie Objekte in Ihrem verknüpften Amazon S3 S3-Bucket hinzufügen oder ändern. `AutoImportPolicy`kann die folgenden Werte haben:  
+  `NEW`- Der automatische Import ist aktiviert. FSx for Lustre importiert automatisch Verzeichnislisten aller neuen Objekte, die dem verknüpften Amazon S3 S3-Bucket hinzugefügt wurden und die derzeit nicht im FSx for Lustre-Dateisystem existieren. 
+  `NEW_CHANGED`- Der automatische Import ist aktiviert. FSx for Lustre importiert automatisch Datei- und Verzeichnislisten aller neuen Objekte, die dem Amazon S3 S3-Bucket hinzugefügt wurden, sowie aller vorhandenen Objekte, die im Amazon S3 S3-Bucket geändert wurden, nachdem Sie diese Option ausgewählt haben. 
+  `NEW_CHANGED_DELETED`- Der automatische Import ist aktiviert. FSx for Lustre importiert automatisch Datei- und Verzeichnislisten aller neuen Objekte, die dem Amazon S3 S3-Bucket hinzugefügt wurden, aller vorhandenen Objekte, die im Amazon S3 S3-Bucket geändert wurden, und aller Objekte, die im Amazon S3 S3-Bucket gelöscht wurden, nachdem Sie diese Option ausgewählt haben.
**Anmerkung**  
Support für `NEW_CHANGED_DELETED` wurde in AWS ParallelCluster Version 3.1.1 hinzugefügt.
Wenn `AutoImportPolicy` nicht angegeben, ist der automatische Import ausgeschaltet. FSx for Lustre aktualisiert nur Datei- und Verzeichnislisten aus dem verknüpften Amazon S3 S3-Bucket, wenn das Dateisystem erstellt wird. FSx for Lustre aktualisiert nach der Auswahl dieser Option keine Datei- und Verzeichnislisten für neue oder geänderte Objekte.  
Weitere Informationen finden Sie unter [Automatisches Importieren von Updates aus Ihrem S3-Bucket](https://docs.aws.amazon.com/fsx/latest/LustreGuide/autoimport-data-repo.html) im *Amazon FSx for Lustre-Benutzerhandbuch*.  
Dieser Parameter wird für Dateisysteme, die den `PERSISTENT_2` Bereitstellungstyp verwenden, nicht unterstützt. Anweisungen zur Konfiguration von Datenrepository-Verknüpfungen finden Sie unter [Verknüpfen Ihres Dateisystems mit einem S3-Bucket](https://docs.aws.amazon.com/fsx/latest/LustreGuide/create-dra-linked-data-repo.html) im *Amazon FSx for Lustre-Benutzerhandbuch*.
[Aktualisierungsrichtlinie: Wenn diese Einstellung geändert wird, ist das Update nicht zulässig.](using-pcluster-update-cluster-v3.md#update-policy-fail-v3)

`DriveCacheType`(**Optional**,) `String`  
Gibt an, dass das Dateisystem über einen SSD-Laufwerkscache verfügt. Dies kann nur festgelegt werden`HDD`, wenn die `StorageType` Einstellung auf gesetzt ist und die `DeploymentType` Einstellung auf gesetzt ist`PERSISTENT_1`. Dies entspricht der [DriveCacheType](https://docs.aws.amazon.com/AWSCloudFormation/latest/UserGuide/aws-properties-fsx-filesystem-lustreconfiguration.html#cfn-fsx-filesystem-lustreconfiguration-drivecachetype)Eigenschaft. Weitere Informationen finden Sie unter [FSx Lustre-Bereitstellungsoptionen](https://docs.aws.amazon.com/fsx/latest/LustreGuide/using-fsx-lustre.html) im *Amazon FSx for Lustre-Benutzerhandbuch*.  
Der einzige gültige Wert ist `READ`. Um den SSD-Laufwerk-Cache zu deaktivieren, geben Sie die `DriveCacheType` Einstellung nicht an.  
[Aktualisierungsrichtlinie: Wenn diese Einstellung geändert wird, ist das Update nicht zulässig.](using-pcluster-update-cluster-v3.md#update-policy-fail-v3)

`StorageType`(**Fakultativ**,`String`)  
Legt den Speichertyp für das FSx for Lustre-Dateisystem fest, das Sie erstellen. Gültige Werte sind `SSD` und `HDD`.  
+ Setzen Sie den Wert auf `SSD`, um Solid-State-Laufwerksspeicher zu verwenden.
+ Legt fest`HDD`, dass Festplattenspeicher verwendet werden soll. `HDD`wird für `PERSISTENT` Bereitstellungstypen unterstützt. 
Der Standardwert ist `SSD`. Weitere Informationen finden Sie unter [Speichertypoptionen](https://docs.aws.amazon.com/fsx/latest/WindowsGuide/optimize-fsx-costs.html#storage-type-options) im *Amazon FSx für Windows-Benutzerhandbuch* und unter [Mehrere Speicheroptionen](https://docs.aws.amazon.com/fsx/latest/LustreGuide/what-is.html#storage-options) im *Amazon FSx for Lustre-Benutzerhandbuch*.   
[Aktualisierungsrichtlinie: Wenn diese Einstellung geändert wird, ist das Update nicht zulässig.](using-pcluster-update-cluster-v3.md#update-policy-fail-v3)

`DeletionPolicy`(**Optional**,`String`)  
Gibt an, ob das Dateisystem beibehalten oder gelöscht werden soll, wenn das Dateisystem aus dem Cluster entfernt oder der Cluster gelöscht wird. Die unterstützten Werte sind `Delete` und `Retain`. Der Standardwert ist `Delete`.  
Wenn auf gesetzt [DeletionPolicy](#yaml-SharedStorage-FsxLustreSettings-DeletionPolicy)ist`Delete`, wird ein verwaltetes Dateisystem mit seinen Daten gelöscht, wenn der Cluster gelöscht wird oder wenn das Dateisystem mit einem Cluster-Update entfernt wird.  
Weitere Informationen finden Sie unter [Gemeinsamer Speicher](shared-storage-quotas-integration-v3.md).  
[Aktualisierungsrichtlinie: Diese Einstellung kann während eines Updates geändert werden.](using-pcluster-update-cluster-v3.md#update-policy-setting-supported-v3)  
`DeletionPolicy`wird ab AWS ParallelCluster Version 3.3.0 unterstützt.

`DataRepositoryAssociations`(**Fakultativ**,`String`)  
Liste von DRAs (bis zu 8 pro Dateisystem)  
Jeder Datenrepository-Zuordnung muss ein eindeutiges FSx Amazon-Dateisystemverzeichnis und ein eindeutiges S3-Bucket oder -Präfix zugeordnet sein.  
Sie können [ExportPath](#yaml-SharedStorage-FsxLustreSettings-ExportPath)und [ImportPath](#yaml-SharedStorage-FsxLustreSettings-ImportPath)nicht gleichzeitig verwenden DRAs. FsxLustreSettings   
[Aktualisierungsrichtlinie: Diese Einstellung kann während eines Updates geändert werden.](using-pcluster-update-cluster-v3.md#update-policy-setting-supported-v3)

`Name`(**Erforderlich**,`String`)  
Der Name des DRA. Sie verwenden diesen Namen, wenn Sie die Einstellungen aktualisieren.  
[Aktualisierungsrichtlinie: Wenn diese Einstellung geändert wird, ist das Update nicht zulässig.](using-pcluster-update-cluster-v3.md#update-policy-fail-v3)

`BatchImportMetaDataOnCreate`(**Fakultativ**,`Boolean`)  
Eine boolesche Kennzeichnung, die angibt, ob eine Aufgabe zum Importieren von Metadaten ausgeführt werden soll, nachdem die Zuordnung zum Datenspeicher erstellt wurde. Die Aufgabe wird ausgeführt, wenn diese Kennzeichnung auf `true` gesetzt ist.  
Standardwert: `false`  
[Aktualisierungsrichtlinie: Wenn diese Einstellung geändert wird, ist das Update nicht zulässig.](using-pcluster-update-cluster-v3.md#update-policy-fail-v3)

`DataRepositoryPath`(**Erforderlich**,`String`)  
Der Pfad zum Amazon-S3-Daten-Repository, das mit dem Dateisystem verknüpft werden soll. Der Pfad kann ein S3-Bucket oder ein Präfix im Format `s3://amzn-s3-demo-bucket/myPrefix/` sein. Dieser Pfad gibt an, wohin im S3-Daten-Repository Dateien importiert oder exportiert werden.  
Kann sich nicht mit anderen überschneiden DRAs  
Pattern: `^[^\u0000\u0085\u2028\u2029\r\n]{3,4357}$`  
Minimum: `3`  
Maximum: `4357`  
[Aktualisierungsrichtlinie: Wenn diese Einstellung geändert wird, ist das Update nicht zulässig.](using-pcluster-update-cluster-v3.md#update-policy-fail-v3)

`FileSystemPath`(**Erforderlich**,`String`)  
Ein Pfad im Amazon FSx for Lustre-Dateisystem, der auf ein übergeordnetes Verzeichnis (z. B.`/ns1/`) oder ein Unterverzeichnis (z. B.`/ns1/subdir/`) verweist, dem eine 1:1 -Zuordnung zugewiesen wird. `DataRepositoryPath` Der führende Schrägstrich im Namen ist erforderlich. Zwei Daten-Repository-Verknüpfungen dürfen keine überlappenden Dateisystempfade haben. Wenn beispielsweise ein Daten-Repository dem Dateisystempfad `/ns1/` zugeordnet ist, können Sie kein anderes Daten-Repository mit dem Dateisystempfad `/ns1/ns2` verknüpfen.  
Dieser Pfad gibt an, wohin in Ihrem Dateisystem Dateien exportiert oder importiert werden. Dieses Dateisystemverzeichnis kann nur mit einem Amazon-S3-Bucket verknüpft werden und kein anderer S3-Bucket kann mit dem Verzeichnis verknüpft werden.  
Kann sich nicht mit anderen überschneiden DRAs  
 Wenn Sie als Dateisystempfad nur einen Schrägstrich (`/`) angeben, können Sie nur ein Daten-Repository mit dem Dateisystem verknüpfen. Sie können nur "`/`" als Dateisystempfad für das erste Datenrepository angeben, das einem Dateisystem zugeordnet ist. 
Pattern: `^[^\u0000\u0085\u2028\u2029\r\n]{1,4096}$`  
Minimum: `1`  
Maximum: `4096`  
[Aktualisierungsrichtlinie: Wenn diese Einstellung geändert wird, ist das Update nicht zulässig.](using-pcluster-update-cluster-v3.md#update-policy-fail-v3)

`ImportedFileChunkSize`(**Optional**,`Integer`)  
Für Dateien, die aus einem Daten-Repository importiert werden, bestimmt dieser Wert die Anzahl der Stripes und die maximale Datenmenge pro Datei (in MiB), die auf einem einzigen physischen Datenträger gespeichert wird. Die maximale Anzahl von Datenträgern, auf die eine einzelne Datei verteilt werden kann, ist durch die Gesamtzahl von Datenträgern begrenzt, aus denen das Dateisystem oder der Cache besteht.  
Die Standard-Chunk-Größe ist 1.024 MiB (1 GiB) und kann bis auf 512.000 MiB (500 GiB) steigen. Amazon S3-Objekte haben eine maximale Größe von 5 TB.  
Minimum: `1`  
Maximum: `4096`  
[Aktualisierungsrichtlinie: Diese Einstellung kann während eines Updates geändert werden.](using-pcluster-update-cluster-v3.md#update-policy-setting-supported-v3)

`AutoExportPolicy`(**Fakultativ**,`Array of strings`)  
Die Liste kann einen oder mehrere der folgenden Werte enthalten:  
+ `NEW` – Neue Dateien und Verzeichnisse werden automatisch in das Daten-Repository exportiert, wenn sie dem Dateisystem hinzugefügt werden.
+ `CHANGED` – Änderungen an Dateien und Verzeichnissen im Dateisystem werden automatisch in das Daten-Repository exportiert.
+ `DELETED` – Dateien und Verzeichnisse werden automatisch auf dem Daten-Repository gelöscht, wenn sie auf dem Dateisystem gelöscht werden.
Sie können eine beliebige Kombination von Ereignistypen für Ihre `AutoExportPolicy` definieren.  
Maximum: `3`  
[Aktualisierungsrichtlinie: Diese Einstellung kann während eines Updates geändert werden.](using-pcluster-update-cluster-v3.md#update-policy-setting-supported-v3)

`AutoImportPolicy`(**Fakultativ**,`Array of strings`)  
Die Liste kann einen oder mehrere der folgenden Werte enthalten:  
+ `NEW`- Amazon importiert FSx automatisch Metadaten von Dateien, die dem verknüpften S3-Bucket hinzugefügt wurden und derzeit nicht im FSx Dateisystem existieren.
+ `CHANGED`- Amazon aktualisiert FSx automatisch Dateimetadaten und macht bestehende Dateiinhalte im Dateisystem ungültig, wenn sich Dateien im Daten-Repository ändern.
+ `DELETED`- Amazon löscht FSx automatisch Dateien im Dateisystem, wenn die entsprechenden Dateien im Daten-Repository gelöscht werden.
Sie können eine beliebige Kombination von Ereignistypen für Ihre `AutoImportPolicy` definieren.  
Maximum: `3`  
[Aktualisierungsrichtlinie: Diese Einstellung kann während eines Updates geändert werden.](using-pcluster-update-cluster-v3.md#update-policy-setting-supported-v3)

## `FsxOntapSettings`
<a name="SharedStorage-v3-FsxOntapSettings"></a>

**Anmerkung**  
Sie müssen definieren`FsxOntapSettings`, ob für [`StorageType`](#yaml-SharedStorage-StorageType)angegeben `FsxOntap` ist.

**(Optional)** Die Einstellungen FSx für ein ONTAP-Dateisystem.

```
FsxOntapSettings:
  VolumeId: string
```

### `FsxOntapSettings`-Eigenschaften
<a name="SharedStorage-v3-FsxOntapSettings.properties"></a>

`VolumeId`(**Erforderlich**,`String`)  
Gibt die Volume-ID des vorhandenen Systems FSx für ONTAP an.

**Anmerkung**  
Wenn ein AWS Batch Scheduler verwendet wird, FSx ist ONTAP nur auf dem Hauptknoten verfügbar.
Wenn der Bereitstellungstyp FSx für ONTAP lautet`Multi-AZ`, stellen Sie sicher, dass die Routing-Tabelle des Subnetzes des Hauptknotens ordnungsgemäß konfiguriert ist.
Support FSx für ONTAP wurde in AWS ParallelCluster Version 3.2.0 hinzugefügt.
Das Dateisystem muss einer Sicherheitsgruppe zugeordnet sein, die eingehenden und ausgehenden TCP- und UDP-Verkehr über die Ports 111, 635, 2049 und 4046 zulässt.

Stellen Sie sicher, dass Datenverkehr zwischen dem Cluster und dem Dateisystem zulässig ist, indem Sie eine der folgenden Aktionen ausführen:
+ Konfigurieren Sie die Sicherheitsgruppen des Dateisystems so, dass der Datenverkehr zum und vom CIDR oder der Präfixliste der Cluster-Subnetze zugelassen wird.
**Anmerkung**  
AWS ParallelCluster überprüft, ob die Ports geöffnet sind und ob die CIDR- oder Präfixliste konfiguriert ist. AWS ParallelCluster validiert den Inhalt der CIDR-Block- oder Präfixliste nicht.
+ Legen Sie mithilfe von/[`SecurityGroups`](Scheduling-v3.md#yaml-Scheduling-SlurmQueues-Networking-SecurityGroups)und [`SlurmQueues`[`HeadNode`](HeadNode-v3.md)](Scheduling-v3.md#Scheduling-v3-SlurmQueues)/[`Networking`](Scheduling-v3.md#Scheduling-v3-SlurmQueues-Networking)/benutzerdefinierte Sicherheitsgruppen für Clusterknoten fest. [`Networking`[`SecurityGroups`](HeadNode-v3.md#yaml-HeadNode-Networking-SecurityGroups)](HeadNode-v3.md#HeadNode-v3-Networking) Die benutzerdefinierten Sicherheitsgruppen müssen so konfiguriert werden, dass sie den Datenverkehr zwischen dem Cluster und dem Dateisystem zulassen.
**Anmerkung**  
Wenn alle Clusterknoten benutzerdefinierte Sicherheitsgruppen verwenden, wird AWS ParallelCluster nur überprüft, ob die Ports geöffnet sind. AWS ParallelCluster überprüft nicht, ob Quelle und Ziel richtig konfiguriert sind.

[Aktualisierungsrichtlinie: Wenn diese Einstellung geändert wird, ist das Update nicht zulässig.](using-pcluster-update-cluster-v3.md#update-policy-fail-v3)

## `FsxOpenZfsSettings`
<a name="SharedStorage-v3-FsxOpenZfsSettings"></a>

**Anmerkung**  
Sie müssen definieren`FsxOpenZfsSettings`, ob für angegeben `FsxOpenZfs` ist [`StorageType`](#yaml-SharedStorage-StorageType).

**(Optional)** Die Einstellungen FSx für ein OpenZFS-Dateisystem.

```
FsxOpenZfsSettings:
  VolumeId: string
```

[Aktualisierungsrichtlinie: Wenn diese Einstellung geändert wird, ist das Update nicht zulässig.](using-pcluster-update-cluster-v3.md#update-policy-fail-v3)

### `FsxOpenZfsSettings`-Eigenschaften
<a name="SharedStorage-v3-FsxOpenZfsSettings.properties"></a>

`VolumeId`(**Erforderlich**,) `String`  
Gibt die Volume-ID des FSx für OpenZFS vorhandenen Systems an.

**Anmerkung**  
Wenn ein AWS Batch Scheduler verwendet wird, FSx ist OpenZFS nur auf dem Hauptknoten verfügbar.
Support FSx für OpenZFS wurde in AWS ParallelCluster Version 3.2.0 hinzugefügt.
Das Dateisystem muss einer Sicherheitsgruppe zugeordnet sein, die eingehenden und ausgehenden TCP- und UDP-Verkehr über die Ports 111, 2049, 20001, 20002 und 20003 zulässt.

Stellen Sie sicher, dass Datenverkehr zwischen dem Cluster und dem Dateisystem zulässig ist, indem Sie einen der folgenden Schritte ausführen:
+ Konfigurieren Sie die Sicherheitsgruppen des Dateisystems so, dass der Datenverkehr zum und vom CIDR oder der Präfixliste der Cluster-Subnetze zugelassen wird.
**Anmerkung**  
AWS ParallelCluster überprüft, ob die Ports geöffnet sind und ob die CIDR- oder Präfixliste konfiguriert ist. AWS ParallelCluster validiert den Inhalt der CIDR-Block- oder Präfixliste nicht.
+ Legen Sie mithilfe von/[`SecurityGroups`](Scheduling-v3.md#yaml-Scheduling-SlurmQueues-Networking-SecurityGroups)und [`SlurmQueues`[`HeadNode`](HeadNode-v3.md)](Scheduling-v3.md#Scheduling-v3-SlurmQueues)/[`Networking`](Scheduling-v3.md#Scheduling-v3-SlurmQueues-Networking)/benutzerdefinierte Sicherheitsgruppen für Clusterknoten fest. [`Networking`[`SecurityGroups`](HeadNode-v3.md#yaml-HeadNode-Networking-SecurityGroups)](HeadNode-v3.md#HeadNode-v3-Networking) Die benutzerdefinierten Sicherheitsgruppen müssen so konfiguriert werden, dass sie den Datenverkehr zwischen dem Cluster und dem Dateisystem zulassen.
**Anmerkung**  
Wenn alle Clusterknoten benutzerdefinierte Sicherheitsgruppen verwenden, wird AWS ParallelCluster nur überprüft, ob die Ports geöffnet sind. AWS ParallelCluster überprüft nicht, ob Quelle und Ziel richtig konfiguriert sind.

[Aktualisierungsrichtlinie: Wenn diese Einstellung geändert wird, ist das Update nicht zulässig.](using-pcluster-update-cluster-v3.md#update-policy-fail-v3)

## `FileCacheSettings`
<a name="SharedStorage-v3-FsxFileCacheSettings"></a>

**Anmerkung**  
Sie müssen definieren`FileCacheSettings`, ob für angegeben `FileCache` ist [`StorageType`](#yaml-SharedStorage-StorageType).

**(Optional)** Die Einstellungen für einen Datei-Cache.

```
FileCacheSettings:
  FileCacheId: string
```

[Aktualisierungsrichtlinie: Wenn diese Einstellung geändert wird, ist das Update nicht zulässig.](using-pcluster-update-cluster-v3.md#update-policy-fail-v3)

### `FileCacheSettings`-Eigenschaften
<a name="SharedStorage-v3-FsxFileCacheSettings.properties"></a>

`FileCacheId`(**Erforderlich**,`String`)  
Gibt die Datei-Cache-ID eines vorhandenen Datei-Caches an.

**Anmerkung**  
Der Datei-Cache unterstützt keine AWS Batch Scheduler.
Support für File Cache wurde in AWS ParallelCluster Version 3.7.0 hinzugefügt.
Das Dateisystem muss einer Sicherheitsgruppe zugeordnet sein, die eingehenden und ausgehenden TCP-Verkehr über Port 988 zulässt.

Stellen Sie sicher, dass Datenverkehr zwischen dem Cluster und dem Dateisystem zulässig ist, indem Sie einen der folgenden Schritte ausführen:
+ Konfigurieren Sie die Sicherheitsgruppen des Datei-Cache so, dass der Datenverkehr zum und vom CIDR oder der Präfixliste der Cluster-Subnetze zugelassen wird.
**Anmerkung**  
AWS ParallelCluster überprüft, ob die Ports geöffnet sind und ob die CIDR- oder Präfixliste konfiguriert ist. AWS ParallelCluster validiert den Inhalt der CIDR-Block- oder Präfixliste nicht.
+ Legen Sie mithilfe von/[`SecurityGroups`](Scheduling-v3.md#yaml-Scheduling-SlurmQueues-Networking-SecurityGroups)und [`SlurmQueues`[`HeadNode`](HeadNode-v3.md)](Scheduling-v3.md#Scheduling-v3-SlurmQueues)/[`Networking`](Scheduling-v3.md#Scheduling-v3-SlurmQueues-Networking)/benutzerdefinierte Sicherheitsgruppen für Clusterknoten fest. [`Networking`[`SecurityGroups`](HeadNode-v3.md#yaml-HeadNode-Networking-SecurityGroups)](HeadNode-v3.md#HeadNode-v3-Networking) Die benutzerdefinierten Sicherheitsgruppen müssen so konfiguriert werden, dass sie den Datenverkehr zwischen dem Cluster und dem Dateisystem zulassen.
**Anmerkung**  
Wenn alle Clusterknoten benutzerdefinierte Sicherheitsgruppen verwenden, wird AWS ParallelCluster nur überprüft, ob die Ports geöffnet sind. AWS ParallelCluster überprüft nicht, ob Quelle und Ziel richtig konfiguriert sind.

[Aktualisierungsrichtlinie: Wenn diese Einstellung geändert wird, ist das Update nicht zulässig.](using-pcluster-update-cluster-v3.md#update-policy-fail-v3)

# `Iam` Abschnitt
<a name="Iam-v3"></a>

**(Optional)** Gibt die IAM-Eigenschaften für den Cluster an.

```
Iam:
  Roles:
    LambdaFunctionsRole: string
  PermissionsBoundary: string
  ResourcePrefix: string
```

[Aktualisierungsrichtlinie: Diese Einstellung kann während eines Updates geändert werden.](using-pcluster-update-cluster-v3.md#update-policy-setting-supported-v3)

## `Iam`-Eigenschaften
<a name="Iam-v3.properties"></a>

`PermissionsBoundary`(**Fakultativ**,`String`)  
Der ARN der IAM-Richtlinie, der als Berechtigungsgrenze für alle Rollen verwendet werden soll, die von AWS ParallelCluster erstellt wurden. Weitere Informationen finden Sie unter [Berechtigungsgrenzen für IAM-Entitäten](https://docs.aws.amazon.com/IAM/latest/UserGuide/access_policies_boundaries.html) im *-IAM-Benutzerhandbuch*. Das Format ist `arn:${Partition}:iam::${Account}:policy/${PolicyName}`.  
[Aktualisierungsrichtlinie: Diese Einstellung kann während eines Updates geändert werden.](using-pcluster-update-cluster-v3.md#update-policy-setting-supported-v3)

`Roles`(**Fakultativ)**  
Gibt Einstellungen für die vom Cluster verwendeten IAM-Rollen an.  
[Aktualisierungsrichtlinie: Diese Einstellung kann während eines Updates geändert werden.](using-pcluster-update-cluster-v3.md#update-policy-setting-supported-v3)    
`LambdaFunctionsRole`(**Optional**,`String`)  
Der ARN der IAM-Rolle, für AWS Lambda die verwendet werden soll. Dies überschreibt die Standardrolle, die allen Lambda-Funktionen zugewiesen ist, die AWS CloudFormation benutzerdefinierte Ressourcen unterstützen. Lambda muss als Principal konfiguriert werden, der die Rolle übernehmen darf. Dadurch wird die Rolle der verwendeten Lambda-Funktionen nicht außer Kraft gesetzt. AWS Batch Das Format ist `arn:${Partition}:iam::${Account}:role/${RoleName}`.  
[Aktualisierungsrichtlinie: Diese Einstellung kann während eines Updates geändert werden.](using-pcluster-update-cluster-v3.md#update-policy-setting-supported-v3)

`ResourcePrefix`(**Fakultativ)**  
Gibt einen Pfad oder ein Namenspräfix für IAM-Ressourcen an, die von AWS ParallelCluster erstellt wurden.  
Das Ressourcenpräfix muss den [von IAM angegebenen Benennungsregeln](https://docs.aws.amazon.com/IAM/latest/UserGuide/reference_identifiers.html) entsprechen:  
+ Ein Name kann bis zu 30 Zeichen enthalten.
+ Ein Name kann nur eine Zeichenfolge ohne Schrägstrich (`/`) sein.
+ Ein Pfad kann bis zu 512 Zeichen lang sein.
+ Ein Pfad muss mit einem Schrägstrich (`/`) beginnen und enden. Er kann mehrere Schrägstriche (`/`) zwischen dem Start- und dem Endschrägstrich () enthalten. `/`
+ Sie können den Pfad und den Namen kombinieren. `/path/name`
Geben Sie einen Namen an.  

```
Iam:
  ResourcePrefix: my-prefix
```
Geben Sie einen Pfad an.  

```
Iam:
  ResourcePrefix: /org/dept/team/project/user/
```
Geben Sie einen Pfad und einen Namen an.  

```
Iam:
  ResourcePrefix: /org/dept/team/project/user/my-prefix
```
Wenn Sie angeben`/my-prefix`, wird ein Fehler zurückgegeben.  

```
Iam:
  ResourcePrefix: /my-prefix
```
Es wird ein Konfigurationsfehler zurückgegeben. Ein Pfad muss zwei `/` s haben. Ein Präfix allein kann nicht `/` s haben.  
[Aktualisierungsrichtlinie: Wenn diese Einstellung geändert wird, ist das Update nicht zulässig.](using-pcluster-update-cluster-v3.md#update-policy-fail-v3)

# `LoginNodes` Abschnitt
<a name="LoginNodes-v3"></a>

**Anmerkung**  
Support für `LoginNodes` wurde in AWS ParallelCluster Version 3.7.0 hinzugefügt.

**(Optional)** Gibt die Konfiguration für den Pool der Anmeldeknoten an.

```
LoginNodes:
  Pools:
    - Name: string
      Count: integer
      InstanceType: string
      GracetimePeriod: integer
      Image:
        CustomAmi: string
      Ssh:
        KeyName: string
        AllowedIps: string
      Networking:
        SubnetIds:
          - string
        SecurityGroups:
          - string
        AdditionalSecurityGroups:
          - string
      Dcv:
        Enabled: boolean
        Port: integer
        AllowedIps: string
      CustomActions:
        OnNodeStart:
          Sequence:
            - Script: string
              Args:
                - string
          Script: string
          Args:
            - string
        OnNodeConfigured:
          Sequence:
            - Script: string
              Args:
                - string
          Script: string
          Args:
            - string
        OnNodeUpdated:
          Sequence:
            - Script: string
              Args:
                - string
          Script: string
          Args:
            - string
      Iam:
        InstanceRole: string
        InstanceProfile: string
        AdditionalIamPolicies:
          - Policy: string
```

[Aktualisierungsrichtlinie: Die Anmeldeknoten im Cluster müssen gestoppt werden, damit diese Einstellung für ein Update geändert werden kann.](using-pcluster-update-cluster-v3.md#update-policy-update-login-node-cluster)

## `LoginNodes`-Eigenschaften
<a name="LoginNodes-v3.properties"></a>

### `Pools`-Eigenschaften
<a name="LoginNodes-v3-Pools"></a>

Definiert Gruppen von Anmeldeknoten mit derselben Ressourcenkonfiguration. Ab AWS ParallelCluster 3.11.0 können bis zu 10 Pools angegeben werden.

```
Pools:
  - Name: string
    Count: integer
    InstanceType: string
    GracetimePeriod: integer
    Image:
      CustomAmi: string
    Ssh:
      KeyName: string
      AllowedIps: string
    Networking:
      SubnetIds:
        - string
      SecurityGroups:
        - string
      AdditionalSecurityGroups:
        - string
    Dcv:
      Enabled: boolean
      Port: integer
      AllowedIps: string
    CustomActions:
      OnNodeStart:
        Sequence:
          - Script: string
            Args:
              - string
        Script: string
        Args:
          - string
      OnNodeConfigured:
        Sequence:
          - Script: string
            Args:
              - string
        Script: string
        Args:
          - string
      OnNodeUpdated:
        Sequence:
          - Script: string
            Args:
              - string
        Script: string
        Args:
          - string
    Iam:
      InstanceRole: string
      InstanceProfile: string
      AdditionalIamPolicies:
        - Policy: string
```

[Aktualisierungsrichtlinie: Anmeldeknotenpools können hinzugefügt werden, aber um einen Pool zu entfernen, müssen alle Anmeldeknoten im Cluster gestoppt werden.](using-pcluster-update-cluster-v3.md#update-policy-add-login-node-pools)

`Name`**(Erforderlich)** `String`  
Gibt den Namen des `LoginNodes` Pools an. Dies wird verwendet, um die `LoginNodes` Ressourcen zu kennzeichnen.  
[Aktualisierungsrichtlinie: Wenn diese Einstellung geändert wird, ist das Update nicht zulässig.](using-pcluster-update-cluster-v3.md#update-policy-fail-v3)   
Ab AWS ParallelCluster Version 3.11.0 lautet die Aktualisierungsrichtlinie: Die Anmeldeknoten im Pool müssen gestoppt werden, damit diese Einstellung für ein Update geändert werden kann.

`Count`**(Erforderlich)** `Integer`  
Gibt die Anzahl der Anmeldeknoten an, die aktiv bleiben sollen.  
[Aktualisierungsrichtlinie: Diese Einstellung kann während eines Updates geändert werden.](using-pcluster-update-cluster-v3.md#update-policy-setting-supported-v3)

`InstanceType`(**Erforderlich**`String`)  
Gibt den Amazon EC2 EC2-Instance-Typ an, der für den Login-Knoten verwendet wird. Die Architektur des Instance-Typs muss mit der Architektur übereinstimmen, die für die Slurm `InstanceType` Einstellung verwendet wurde.  
[Richtlinie aktualisieren](using-pcluster-update-cluster-v3.md#update-policy-setting-supported-v3): Diese Einstellung kann geändert werden, wenn der Pool der Anmeldeknoten gestoppt wird.  
Ab AWS ParallelCluster Version 3.11.0 lautet die Aktualisierungsrichtlinie: Die Anmeldeknoten im Pool müssen gestoppt werden, damit diese Einstellung für ein Update geändert werden kann.

`GracetimePeriod`**(Fakultativ)** `Integer`  
Gibt die Mindestzeit in Minuten an, die zwischen der Benachrichtigung an den angemeldeten Benutzer, dass ein Anmeldeknoten außer Betrieb genommen werden soll, und dem eigentlichen Stopp-Ereignis vergeht. Gültige Werte für `GracetimePeriod` liegen zwischen 3 und 120 Minuten. Die Standardeinstellung ist 10 Minuten.  
Das auslösende Ereignis beinhaltet Interaktionen zwischen mehreren AWS Diensten. Manchmal können die Netzwerklatenz und die Übertragung der Informationen einige Zeit in Anspruch nehmen, sodass die Übergangszeit aufgrund interner Verzögerungen bei den AWS Diensten länger als erwartet dauern kann.
[Aktualisierungsrichtlinie: Diese Einstellung kann während eines Updates geändert werden.](using-pcluster-update-cluster-v3.md#update-policy-setting-supported-v3)

`Image`(**Fakultativ**)  
Definiert die Image-Konfiguration für die Anmeldeknoten.  

```
Image:
  CustomAmi: String
```  
`CustomAmi`(**Fakultativ**`String`)  
Gibt das benutzerdefinierte AMI an, das für die Bereitstellung der Anmeldeknoten verwendet wird. Wenn nicht angegeben, wird standardmäßig der Wert verwendet, der in der [`HeadNode` Abschnitt](HeadNode-v3.md) angegeben ist.  
[Aktualisierungsrichtlinie: Wenn diese Einstellung geändert wird, ist das Update nicht zulässig.](using-pcluster-update-cluster-v3.md#update-policy-fail-v3)

`Ssh`(**Fakultativ)**  
Definiert die `ssh` Konfiguration für die Login-Knoten.  

```
Ssh:
  KeyName: string
  AllowedIps: string
```
Ab AWS ParallelCluster Version 3.11.0 lautet die Aktualisierungsrichtlinie: Die Anmeldeknoten im Pool müssen gestoppt werden, damit diese Einstellung für ein Update geändert werden kann.  
`KeyName`**(Fakultativ)** `String`  
Gibt den `ssh` Schlüssel an, der für die Anmeldung bei den Anmeldeknoten verwendet wird. Wenn nicht angegeben, wird standardmäßig der in der [`HeadNode` Abschnitt](HeadNode-v3.md) angegebene Wert verwendet.  
[Aktualisierungsrichtlinie: Die Anmeldeknoten im Pool müssen gestoppt werden, damit diese Einstellung für ein Update geändert werden kann.](using-pcluster-update-cluster-v3.md#update-policy-update-login-node-pools)  
Veraltet — Der Konfigurationsparameter `LoginNodes/Pools/Ssh/KeyName` ist veraltet und wird in future Versionen entfernt. Die CLI gibt jetzt eine Warnmeldung zurück, wenn sie in der Clusterkonfiguration verwendet wird. Einzelheiten finden Sie unter [ https://github.com/aws/aws-parallelcluster/issues/6811](https://github.com/aws/aws-parallelcluster/issues/6811).  
`AllowedIps`**(Fakultativ)** `String`  
Gibt den IP-Bereich im CIDR-Format oder eine Präfixlisten-ID für SSH-Verbindungen zu Anmeldeknoten im Pool an. Die Standardeinstellung ist die in der Konfiguration des Hauptknotens [AllowedIps](HeadNode-v3.md#yaml-HeadNode-Ssh-AllowedIps)definierte oder, falls nicht angegeben. `0.0.0.0/0` [`HeadNode` Abschnitt](HeadNode-v3.md).  
[Aktualisierungsrichtlinie: Die Anmeldeknoten im Pool müssen gestoppt werden, damit diese Einstellung für ein Update geändert werden kann.](using-pcluster-update-cluster-v3.md#update-policy-update-login-node-pools)  
Support AllowedIps für Login-Knoten wurde in AWS ParallelCluster Version 3.11.0 hinzugefügt.

`Networking`**(Erforderlich)**  
  

```
Networking:
  SubnetIds:
    - string
  SecurityGroups:
    - string
  AdditionalSecurityGroups:
    - string
```
Ab AWS ParallelCluster Version 3.11.0 lautet die Aktualisierungsrichtlinie: Die Anmeldeknoten im Pool müssen gestoppt werden, damit diese Einstellung für ein Update geändert werden kann.  
`SubnetIds`**(Erforderlich)** `[String]`  
Die ID des vorhandenen Subnetzes, in dem Sie den Pool der Anmeldeknoten bereitstellen. Sie können nur ein Subnetz definieren.  
[Aktualisierungsrichtlinie: Wenn diese Einstellung geändert wird, ist das Update nicht zulässig.](using-pcluster-update-cluster-v3.md#update-policy-fail-v3)  
`SecurityGroups`(**Fakultativ)** `[String]`  
Eine Liste von Sicherheitsgruppen, die für den Pool der Anmeldeknoten verwendet werden sollen. Wenn keine Sicherheitsgruppen angegeben sind, AWS ParallelCluster erstellt es Sicherheitsgruppen für Sie.  
[Aktualisierungsrichtlinie: Wenn diese Einstellung geändert wird, ist das Update nicht zulässig.](using-pcluster-update-cluster-v3.md#update-policy-fail-v3)  
`AdditionalSecurityGroups`(**Fakultativ**`[String]`)  
Eine Liste zusätzlicher Sicherheitsgruppen, die für den Pool der Anmeldeknoten verwendet werden sollen.  
[Aktualisierungsrichtlinie: Wenn diese Einstellung geändert wird, ist das Update nicht zulässig.](using-pcluster-update-cluster-v3.md#update-policy-fail-v3)

`Dcv`(**Fakultativ**)  
Definiert die Konfigurationseinstellungen für den NICE-DCV-Server, der auf den [Anmeldeknoten](#LoginNodes-v3) ausgeführt wird. Weitere Informationen finden Sie unter [Stellen Sie über Amazon DCV eine Connect zu den Head- und Login-Knoten her](dcv-v3.md).  

```
Dcv:
  Enabled: boolean
  Port: integer
  AllowedIps: string
```
Standardmäßig AWS ParallelCluster ist der NICE-DCV-Port, der eingerichtet wurde, für alle IPv4 Adressen geöffnet. Sie können nur dann eine Verbindung zu einem NICE-DCV-Port herstellen, wenn Sie die URL für die NICE-DCV-Sitzung haben und sich innerhalb von 30 Sekunden, nachdem die URL von pcluster dcv-connect zurückgegeben wurde, mit der NICE-DCV-Sitzung verbinden. Verwenden Sie die `AllowedIps` Einstellung, um den Zugriff auf den NICE-DCV-Port mit einem CIDR-formatierten IP-Bereich weiter einzuschränken, und verwenden Sie die Einstellung Port, um einen nicht standardmäßigen Port festzulegen.
[Aktualisierungsrichtlinie: Wenn diese Einstellung geändert wird, ist das Update nicht zulässig.](using-pcluster-update-cluster-v3.md#update-policy-fail-v3)  
Support für DCV auf Anmeldeknoten wurde in AWS ParallelCluster Version 3.11.0 hinzugefügt.  
`Enabled`**(Erforderlich)** `Boolean`  
Gibt an, ob NICE DCV auf den Anmeldeknoten im Pool aktiviert ist. Der Standardwert ist `false`.  
[Aktualisierungsrichtlinie: Wenn diese Einstellung geändert wird, ist das Update nicht zulässig.](using-pcluster-update-cluster-v3.md#update-policy-fail-v3)  
NICE DCV generiert automatisch ein selbstsigniertes Zertifikat, das zur Sicherung des Datenverkehrs zwischen dem NICE-DCV-Client und dem NICE-DCV-Server verwendet wird, der auf dem Anmeldeknoten ausgeführt wird. Informationen zum Konfigurieren Ihres eigenen Zertifikats finden Sie unter [Amazon DCV HTTPS-Zertifikat](dcv-v3.md#dcv-v3-certificate).  
`Port`**(Fakultativ)** `Integer`  
Gibt den Port für NICE DCV an. Der Standardwert ist `8443`.  
[Aktualisierungsrichtlinie: Wenn diese Einstellung geändert wird, ist das Update nicht zulässig.](using-pcluster-update-cluster-v3.md#update-policy-fail-v3)  
`AllowedIps`(**Fakultativ)** `String`  
Gibt den CIDR-formatierten IP-Bereich für Verbindungen zu NICE DCV an. Diese Einstellung wird nur verwendet, wenn AWS ParallelCluster die Sicherheitsgruppe erstellt wird. Der Standardwert ist`0.0.0.0/0`, was den Zugriff von jeder Internetadresse aus ermöglicht.  
[Aktualisierungsrichtlinie: Wenn diese Einstellung geändert wird, ist das Update nicht zulässig.](using-pcluster-update-cluster-v3.md#update-policy-fail-v3)

`CustomActions`(**Fakultativ**)  
Gibt die benutzerdefinierten Skripts an, die auf den Anmeldeknoten ausgeführt werden sollen.  

```
CustomActions:
  OnNodeStart:
    Sequence:
      - Script: string
        Args: 
          - string
    Script: string
    Args:
      - string
  OnNodeConfigured:
    Sequence:
      - Script: string
        Args:
          - string
    Script: string
    Args:
      - string
  OnNodeUpdated:
    Sequence:
      - Script: string
        Args:
          - string
    Script: string
    Args:
      - string
```
Support für benutzerdefinierte Aktionen auf Anmeldeknoten wurde in AWS ParallelCluster Version 3.11.0 hinzugefügt.  
`OnNodeStart`**(Fakultativ)**  
Gibt ein einzelnes Skript oder eine Sequenz von Skripten an, die auf den [Anmeldeknoten](#LoginNodes-v3) ausgeführt werden sollen, bevor eine Bootstrap-Aktion zur Knotenbereitstellung gestartet wird. Weitere Informationen finden Sie unter [Benutzerdefinierte Bootstrap-Aktionen](custom-bootstrap-actions-v3.md).    
`Sequence`(**Optional)**  
Liste der auszuführenden Skripts. AWS ParallelCluster führt die Skripts in derselben Reihenfolge aus, in der sie in der Konfigurationsdatei aufgeführt sind, beginnend mit der ersten.    
`Script`(**Erforderlich**`String`)  
Gibt die zu verwendende Datei an. Der Dateipfad kann mit `https://` oder beginnen`s3://`.  
`Args`(**Fakultativ**`[String]`)  
Liste der Argumente, die an das Skript übergeben werden sollen.  
[Aktualisierungsrichtlinie: Wenn diese Einstellung geändert wird, ist das Update nicht zulässig.](using-pcluster-update-cluster-v3.md#update-policy-fail-v3)  
`Script`(**Erforderlich**`String`)  
Gibt die Datei an, die für ein einzelnes Skript verwendet werden soll. Der Dateipfad kann mit `https://` oder beginnen`s3://`.  
`Args`(**Fakultativ**`[String]`)  
Liste der Argumente, die an das einzelne Skript übergeben werden sollen.  
`OnNodeConfigured`(**Fakultativ**)  
Gibt ein einzelnes Skript oder eine Sequenz von Skripten an, die auf den [Anmeldeknoten](#LoginNodes-v3) ausgeführt werden sollen, nachdem die Bootstrap-Prozesse des Knotens abgeschlossen sind. Weitere Informationen finden Sie unter [Benutzerdefinierte Bootstrap-Aktionen](custom-bootstrap-actions-v3.md).    
`Sequence`(**Optional)**  
Liste der auszuführenden Skripts. AWS ParallelCluster führt die Skripts in derselben Reihenfolge aus, in der sie in der Konfigurationsdatei aufgeführt sind, beginnend mit der ersten.    
`Script`(**Erforderlich**`String`)  
Gibt die zu verwendende Datei an. Der Dateipfad kann mit `https://` oder beginnen`s3://`.  
`Args`(**Fakultativ**`[String]`)  
Liste der Argumente, die an das Skript übergeben werden sollen.  
[Aktualisierungsrichtlinie: Wenn diese Einstellung geändert wird, ist das Update nicht zulässig.](using-pcluster-update-cluster-v3.md#update-policy-fail-v3)  
`Script`(**Erforderlich**`String`)  
Gibt die Datei an, die für ein einzelnes Skript verwendet werden soll. Der Dateipfad kann mit `https://` oder beginnen`s3://`.  
`Args`(**Fakultativ**`[String]`)  
Liste der Argumente, die an das einzelne Skript übergeben werden sollen.  
[Aktualisierungsrichtlinie: Wenn diese Einstellung geändert wird, ist das Update nicht zulässig.](using-pcluster-update-cluster-v3.md#update-policy-fail-v3)  
`OnNodeUpdated`(**Fakultativ**)  
Gibt ein einzelnes Skript oder eine Sequenz von Skripten an, die ausgeführt werden sollen, nachdem die Aktualisierung des Hauptknotens abgeschlossen ist und der Scheduler und der gemeinsam genutzte Speicher den neuesten Änderungen der Cluster-Konfiguration entsprechen. Weitere Informationen finden Sie unter [Benutzerdefinierte Bootstrap-Aktionen](custom-bootstrap-actions-v3.md).    
`Sequence`(**Optional)**  
Liste der auszuführenden Skripts. AWS ParallelCluster führt die Skripts in derselben Reihenfolge aus, in der sie in der Konfigurationsdatei aufgeführt sind, beginnend mit der ersten.    
`Script`(**Erforderlich**`String`)  
Gibt die zu verwendende Datei an. Der Dateipfad kann mit `https://` oder beginnen`s3://`.  
`Args`(**Fakultativ**`[String]`)  
Liste der Argumente, die an das Skript übergeben werden sollen.  
`Script`(**Erforderlich**`String`)  
Gibt die Datei an, die für ein einzelnes Skript verwendet werden soll. Der Dateipfad kann mit `https://` oder beginnen`s3://`.  
`Args`(**Fakultativ**`[String]`)  
Liste der Argumente, die an das einzelne Skript übergeben werden sollen.  
[Aktualisierungsrichtlinie: Wenn diese Einstellung geändert wird, ist das Update nicht zulässig.](using-pcluster-update-cluster-v3.md#update-policy-fail-v3)  
AWS ParallelCluster unterstützt nicht, sowohl ein einzelnes Skript als auch `Sequence` dieselbe benutzerdefinierte Aktion einzubeziehen.

`Iam`(**Fakultativ**)  
Gibt entweder eine Instanzrolle oder ein Instanzprofil an, das auf den Anmeldeknoten verwendet werden soll, um die Standard-Instanzrolle oder das Instanzprofil für den Cluster zu überschreiben.  

```
Iam:
  InstanceRole: string
  InstanceProfile: string
  AdditionalIamPolicies:
    - Policy: string
```
Ab AWS ParallelCluster Version 3.11.0 lautet die Aktualisierungsrichtlinie: Die Anmeldeknoten im Pool müssen gestoppt werden, damit diese Einstellung für ein Update geändert werden kann.  
`InstanceProfile`**(Fakultativ)** `String`  
Gibt ein Instanzprofil an, um das standardmäßige Instanzprofil für den Anmeldeknoten zu überschreiben. Sie können nicht sowohl `InstanceProfile` als auch `InstanceRole` angeben. Das Format ist `arn:Partition:iam::Account:instance-profile/InstanceProfileName`. Wenn dies angegeben ist, können die `AdditionalIamPolicies` Einstellungen `InstanceRole` und nicht angegeben werden.  
[Aktualisierungsrichtlinie: Wenn diese Einstellung geändert wird, ist das Update nicht zulässig.](using-pcluster-update-cluster-v3.md#update-policy-fail-v3)  
`InstanceRole`(**Fakultativ**`String`)  
Gibt eine Instanzrolle an, um die standardmäßige Instanzrolle für den Login-Knoten zu überschreiben. Sie können nicht sowohl `InstanceProfile` als auch `InstanceRole` angeben. Das Format ist `arn:Partition:iam::Account:role/RoleName`. Wenn dies angegeben ist, können die `AdditionalIamPolicies` Einstellungen `InstanceProfile` und nicht angegeben werden.  
[Aktualisierungsrichtlinie: Wenn diese Einstellung geändert wird, ist das Update nicht zulässig.](using-pcluster-update-cluster-v3.md#update-policy-fail-v3)  
`AdditionalIamPolicies`(**Fakultativ**)  

```
AdditionalIamPolicies:
  - Policy: string
```
Eine IAM-Richtlinie Amazon Resource Name (ARN).  
Gibt eine Liste von Amazon Resource Names (ARNs) von IAM-Richtlinien für Amazon EC2 an. Diese Liste ist der Root-Rolle angehängt, die für den Anmeldeknoten verwendet wird, zusätzlich zu den Berechtigungen, die für erforderlich sind. AWS ParallelCluster  
Ein IAM-Richtlinienname und sein ARN sind unterschiedlich. Namen können nicht verwendet werden.  
Wenn dies angegeben ist, können die `InstanceRole` Einstellungen `InstanceProfile` und nicht angegeben werden. Wir empfehlen die Verwendung, `AdditionalIamPolicies` weil zu den erforderlichen Berechtigungen hinzugefügt `AdditionalIamPolicies` werden und alle erforderlichen Berechtigungen enthalten `InstanceRole` müssen. AWS ParallelCluster Die erforderlichen Berechtigungen ändern sich häufig von Version zu Version, wenn Funktionen hinzugefügt werden.  
Es gibt keinen Standardwert.  
[Aktualisierungsrichtlinie: Wenn diese Einstellung geändert wird, ist das Update nicht zulässig.](using-pcluster-update-cluster-v3.md#update-policy-fail-v3)    
`Policy`(**Erforderlich**`[String]`)  
[Aktualisierungsrichtlinie: Wenn diese Einstellung geändert wird, ist das Update nicht zulässig.](using-pcluster-update-cluster-v3.md#update-policy-fail-v3)

# `Monitoring` Abschnitt
<a name="Monitoring-v3"></a>

**(Optional)** Gibt die Überwachungseinstellungen für den Cluster an.

```
Monitoring:
  Logs:
    CloudWatch:
      Enabled: boolean
      RetentionInDays: integer
      DeletionPolicy: string
    Rotation:
      Enabled: boolean
  Dashboards:
    CloudWatch:
      Enabled: boolean
  DetailedMonitoring: boolean
  Alarms:
   Enabled: boolean
```

[Aktualisierungsrichtlinie: Diese Einstellung wird während eines Updates nicht analysiert.](using-pcluster-update-cluster-v3.md#update-policy-setting-ignored-v3)

## `Monitoring`-Eigenschaften
<a name="Monitoring-v3.properties"></a>

`Logs`(**Fakultativ**)  
Die Protokolleinstellungen für den Cluster.  
[Aktualisierungsrichtlinie: Wenn diese Einstellung geändert wird, ist das Update nicht zulässig.](using-pcluster-update-cluster-v3.md#update-policy-fail-v3)    
`CloudWatch`(**Fakultativ**)  
Die CloudWatch Logs-Einstellungen für den Cluster.  
[Aktualisierungsrichtlinie: Wenn diese Einstellung geändert wird, ist das Update nicht zulässig.](using-pcluster-update-cluster-v3.md#update-policy-fail-v3)    
`Enabled`(**Erforderlich**,`Boolean`)  
Falls`true`, werden Clusterprotokolle in CloudWatch Logs gestreamt. Der Standardwert ist `true`.  
[Aktualisierungsrichtlinie: Wenn diese Einstellung geändert wird, ist das Update nicht zulässig.](using-pcluster-update-cluster-v3.md#update-policy-fail-v3)  
`RetentionInDays`(**Fakultativ**,`Integer`)  
Die Anzahl der Tage, für die die Protokollereignisse in den CloudWatch Protokollen aufbewahrt werden sollen. Der Standardwert ist 180. Die unterstützten Werte sind 0, 1, 3, 5, 7, 14, 30, 60, 90, 120, 150, 180, 365, 400, 545, 731, 1827 und 3653. Bei einem Wert von 0 wird die Standardeinstellung für die Aufbewahrung von CloudWatch Protokollen verwendet, d. h. sie läuft nie ab.  
[Aktualisierungsrichtlinie: Diese Einstellung kann während eines Updates geändert werden.](using-pcluster-update-cluster-v3.md#update-policy-setting-supported-v3)  
`DeletionPolicy`(**Optional**,`String`)  
Gibt an, ob Protokollereignisse in CloudWatch Logs gelöscht werden sollen, wenn der Cluster gelöscht wird. Die möglichen Werte sind `Delete` und `Retain`. Der Standardwert ist `Retain`.  
[Aktualisierungsrichtlinie: Diese Einstellung kann während eines Updates geändert werden.](using-pcluster-update-cluster-v3.md#update-policy-setting-supported-v3)  
`Rotation`(**Fakultativ**)  
Die Einstellungen für die Protokollrotation für den Cluster.  
[Aktualisierungsrichtlinie: Wenn diese Einstellung geändert wird, ist das Update nicht zulässig.](using-pcluster-update-cluster-v3.md#update-policy-fail-v3)    
`Enabled`(**Erforderlich**,`Boolean`)  
Falls`true`, ist die Protokollrotation aktiviert. Der Standardwert ist `true`. Wenn eine AWS ParallelCluster konfigurierte Protokolldatei eine bestimmte Größe erreicht, wird sie rotiert und es wird ein einzelnes Backup gespeichert. Weitere Informationen finden Sie unter [AWS ParallelCluster konfigurierte Protokollrotation](log-rotation-v3.md).  
[Aktualisierungsrichtlinie: Wenn diese Einstellung geändert wird, ist das Update nicht zulässig.](using-pcluster-update-cluster-v3.md#update-policy-fail-v3)

`Dashboards`(**Fakultativ**)  
Die Dashboard-Einstellungen für den Cluster.  
[Aktualisierungsrichtlinie: Diese Einstellung kann während eines Updates geändert werden.](using-pcluster-update-cluster-v3.md#update-policy-setting-supported-v3)    
`CloudWatch`(**Fakultativ**)  
Die CloudWatch Dashboard-Einstellungen für den Cluster.  
[Aktualisierungsrichtlinie: Diese Einstellung kann während eines Updates geändert werden.](using-pcluster-update-cluster-v3.md#update-policy-setting-supported-v3)    
`Enabled`(**Erforderlich**,`Boolean`)  
Falls`true`, ist das CloudWatch Dashboard aktiviert. Der Standardwert ist `true`.  
[Aktualisierungsrichtlinie: Diese Einstellung kann während eines Updates geändert werden.](using-pcluster-update-cluster-v3.md#update-policy-setting-supported-v3)

`DetailedMonitoring`(**Fakultativ**,`Boolean`)  
Wenn auf gesetzt`true`, ist die detaillierte Überwachung für die Rechenflotte der Amazon EC2 EC2-Instances aktiviert. Wenn diese Option aktiviert ist, zeigt die Amazon EC2 EC2-Konsole Diagramme zur Überwachung der Instances in Intervallen von 1 Minute an. Wenn diese Funktion aktiviert ist, fallen zusätzliche Kosten an. Der Standardwert ist `false`.  
Weitere Informationen finden Sie unter [Enable or turn off detailed monitoring for your instances](https://docs.aws.amazon.com/AWSEC2/latest/UserGuide/using-cloudwatch-new.html) im *Amazon EC2 User Guide for Linux Instances*.  
[Aktualisierungsrichtlinie: Die Rechenflotte muss gestoppt werden, damit diese Einstellung für ein Update geändert werden kann.](using-pcluster-update-cluster-v3.md#update-policy-compute-fleet-v3)  
`DetailedMonitoring`wird ab AWS ParallelCluster Version 3.6.0 hinzugefügt.

`Alarms`(**Fakultativ)**  
CloudWatch Alarme für den Cluster.  
[Aktualisierungsrichtlinie: Diese Einstellung kann während eines Updates geändert werden.](using-pcluster-update-cluster-v3.md#update-policy-setting-supported-v3)    
`Enabled`(**Fakultativ**)  
Falls`true`, werden die CloudWatch Alarme für den Cluster erstellt. Der Standardwert ist `true`.  
[Aktualisierungsrichtlinie: Diese Einstellung kann während eines Updates geändert werden.](using-pcluster-update-cluster-v3.md#update-policy-setting-supported-v3)  
Ab AWS ParallelCluster Version 3.8.0 werden die folgenden Alarme für den Head Node erstellt: Amazon EC2 Health Check, CPU/Memory/Disk Auslastung und ein zusammengesetzter Alarm, der alle anderen Alarme umfasst.

# `Tags` Abschnitt
<a name="Tags-v3"></a>

**(Optional), Array** Definiert die Tags, die von allen Clusterressourcen verwendet CloudFormation und an diese weitergegeben werden. Weitere Informationen finden Sie unter [dem CloudFormation Ressourcen-Tag](https://docs.aws.amazon.com/AWSCloudFormation/latest/UserGuide/aws-properties-resource-tags.html) im *AWS CloudFormation Benutzerhandbuch*.

```
Tags:
  - Key: string
    Value: string
```

[Aktualisierungsrichtlinie: Diese Einstellung kann während eines Updates geändert werden.](using-pcluster-update-cluster-v3.md#update-policy-setting-supported-v3)

## `Tags`-Eigenschaften
<a name="Tags-v3.properties"></a>

`Key`(**Erforderlich**,`String`)  
Definiert den Namen des Tags.  
[Aktualisierungsrichtlinie: Diese Einstellung kann während eines Updates geändert werden.](using-pcluster-update-cluster-v3.md#update-policy-setting-supported-v3)

`Value`(**Erforderlich**,`String`)  
Definiert den Wert des Tags.  
[Aktualisierungsrichtlinie: Diese Einstellung kann während eines Updates geändert werden.](using-pcluster-update-cluster-v3.md#update-policy-setting-supported-v3)

**Anmerkung**  
Ab AWS ParallelCluster 3.15.0 werden Tag-Updates mit den folgenden Einschränkungen unterstützt:  
EBS-Volume aktiviert HeadNode — Behält nur die Tags bei, als der Cluster erstellt wurde. Die Aktualisierung von Tags auf diesem EBS-Volume wird nicht unterstützt.
Laufende Knoten — Tag-Updates werden nicht auf laufende Compute- oder Anmeldeknoten angewendet.

# `AdditionalPackages` Abschnitt
<a name="AdditionalPackages-v3"></a>

**(Optional)** Wird verwendet, um zusätzliche zu installierende Pakete zu identifizieren.

```
AdditionalPackages:
  IntelSoftware:
    IntelHpcPlatform: boolean
```

[Aktualisierungsrichtlinie: Wenn diese Einstellung geändert wird, ist das Update nicht zulässig.](using-pcluster-update-cluster-v3.md#update-policy-fail-v3)

## `IntelSoftware`
<a name="AdditionalPackages-v3-IntelSoftware"></a>

**(Optional)** Definiert die Konfiguration für Intel Select-Lösungen.

```
IntelSoftware:
  IntelHpcPlatform: boolean
```

[Aktualisierungsrichtlinie: Wenn diese Einstellung geändert wird, ist das Update nicht zulässig.](using-pcluster-update-cluster-v3.md#update-policy-fail-v3)

### `IntelSoftware`-Eigenschaften
<a name="AdditionalPackages-v3-IntelSoftware.properties"></a>

` IntelHpcPlatform`(**Optional**,`Boolean`)  
Wenn`true`, bedeutet dies, dass die [Endbenutzer-Lizenzvereinbarung](https://software.intel.com/en-us/articles/end-user-license-agreement) für Intel Parallel Studio akzeptiert wurde. Dadurch wird Intel Parallel Studio auf dem Hauptknoten installiert und von den Rechenknoten gemeinsam genutzt. Dadurch verlängert sich die Zeit, die der Hauptknoten für das Bootstrap benötigt, um mehrere Minuten.  
[Aktualisierungsrichtlinie: Wenn diese Einstellung geändert wird, ist das Update nicht zulässig.](using-pcluster-update-cluster-v3.md#update-policy-fail-v3)  
Ab AWS ParallelCluster Version 3.10.0 wird der `IntelHpcPlatform` Parameter nicht mehr unterstützt.

# `DirectoryService` Abschnitt
<a name="DirectoryService-v3"></a>

**Anmerkung**  
Support für `DirectoryService` wurde in AWS ParallelCluster Version 3.1.1 hinzugefügt.

**(Optional)** Die Verzeichnisdiensteinstellungen für einen Cluster, der den Zugriff mehrerer Benutzer unterstützt.

AWS ParallelCluster verwaltet Berechtigungen, die den Zugriff mehrerer Benutzer auf Cluster mit einem Active Directory (AD) über das Lightweight Directory Access Protocol (LDAP) unterstützen, das vom [System Security Services Daemon (SSSD](https://sssd.io/docs/introduction.html)) unterstützt wird. [Weitere Informationen finden Sie unter Was ist? AWS Directory Service](https://docs.aws.amazon.com/directoryservice/latest/admin-guide/what_is.html) im *AWS Directory Service Administratorhandbuch*.

Wir empfehlen die Verwendung von LDAP over TLS/SSL (kurz LDAPS abgekürzt), um sicherzustellen, dass potenziell vertrauliche Informationen über verschlüsselte Kanäle übertragen werden.

```
DirectoryService:
  DomainName: string
  DomainAddr: string
  PasswordSecretArn: string
  DomainReadOnlyUser: string
  LdapTlsCaCert: string
  LdapTlsReqCert: string
  LdapAccessFilter: string
  GenerateSshKeysForUsers: boolean
  AdditionalSssdConfigs: dict
```

[Aktualisierungsrichtlinie: Die Rechenflotte muss gestoppt werden, damit diese Einstellung für ein Update geändert werden kann.](using-pcluster-update-cluster-v3.md#update-policy-compute-fleet-v3)

## `DirectoryService`-Eigenschaften
<a name="DirectoryService-v3.properties"></a>

**Anmerkung**  
Wenn Sie die Nutzung AWS ParallelCluster in einem einzelnen Subnetz ohne Internetzugang planen, finden Sie weitere Anforderungen unter[AWS ParallelCluster in einem einzigen Subnetz ohne Internetzugang](aws-parallelcluster-in-a-single-public-subnet-no-internet-v3.md).

`DomainName`(**Erforderlich**,`String`)  
Die Active Directory-Domäne (AD), die Sie für Identitätsinformationen verwenden.  
`DomainName`akzeptiert sowohl die Formate Fully Qualified Domain Name (FQDN) als auch LDAP Distinguished Name (DN).  
+ Beispiel für einen FQDN: `corp.example.com`
+ Beispiel für einen LDAP-DN: `DC=corp,DC=example,DC=com`
Diese Eigenschaft entspricht dem aufgerufenen sssd-ldap-Parameter. `ldap_search_base`  
[Aktualisierungsrichtlinie: Die Rechenflotte muss gestoppt werden, damit diese Einstellung für ein Update geändert werden kann.](using-pcluster-update-cluster-v3.md#update-policy-compute-fleet-v3)

`DomainAddr`**(Erforderlich,)** `String`  
Der URI oder URIs dieser verweist auf den AD-Domänencontroller, der als LDAP-Server verwendet wird. Die URI entspricht dem aufgerufenen SSSD-LDAP-Parameter. `ldap_uri` Der Wert kann eine durch Kommas getrennte Zeichenfolge von sein. URIs Um LDAP zu verwenden, müssen Sie am Anfang jeder URI etwas hinzufügen`ldap://`.  
Beispielwerte:  

```
ldap://192.0.2.0,ldap://203.0.113.0          # LDAP
ldaps://192.0.2.0,ldaps://203.0.113.0        # LDAPS without support for certificate verification
ldaps://abcdef01234567890.corp.example.com  # LDAPS with support for certificate verification
192.0.2.0,203.0.113.0                        # AWS ParallelCluster uses LDAPS by default
```
Wenn Sie LDAPS mit Zertifikatsverifizierung verwenden, URIs müssen es sich um Hostnamen handeln.  
Wenn Sie LDAPS ohne Zertifikatsverifizierung oder LDAP verwenden, URIs können dies Hostnamen oder IP-Adressen sein.  
Verwenden Sie LDAP over TLS/SSL (LDAPS), um die Übertragung von Passwörtern und anderen vertraulichen Informationen über unverschlüsselte Kanäle zu verhindern. Wenn AWS ParallelCluster kein Protokoll gefunden wird, wird es am Anfang jeder URI oder jedes Hostnamens hinzugefügt`ldaps://`.  
[Aktualisierungsrichtlinie: Die Rechenflotte muss gestoppt werden, damit diese Einstellung für ein Update geändert werden kann.](using-pcluster-update-cluster-v3.md#update-policy-compute-fleet-v3)

`PasswordSecretArn`(**Erforderlich**,`String`)  
Der Amazon-Ressourcenname (ARN) des AWS Secrets Manager Geheimnisses, das das `DomainReadOnlyUser` Klartext-Passwort enthält. Der Inhalt des Geheimnisses entspricht dem aufgerufenen SSSD-LDAP-Parameter. `ldap_default_authtok`  
Wenn Sie die AWS Secrets Manager Konsole verwenden, um ein Geheimnis zu erstellen, achten Sie darauf, „Andere Art von Geheimnis“ und Klartext auszuwählen und nur den Passworttext in das Geheimnis aufzunehmen.  
Weitere Informationen zur Erstellung eines Geheimnisses finden Sie AWS Secrets Manager unter [Create an AWS Secrets Manager](https://docs.aws.amazon.com//secretsmanager/latest/userguide/create_secret) Secret
Der LDAP-Client verwendet das Passwort, um sich bei der AD-Domäne zu authentifizieren, `DomainReadOnlyUser` wenn er Identitätsinformationen anfordert.  
Ob der Benutzer dazu berechtigt `PasswordSecretArn` ist [https://docs.aws.amazon.com/secretsmanager/latest/apireference/API_DescribeSecret.html](https://docs.aws.amazon.com/secretsmanager/latest/apireference/API_DescribeSecret.html), wird überprüft. `PasswordSecretArn`ist gültig, wenn das angegebene Geheimnis existiert. Wenn die Benutzer-IAM-Richtlinie dies nicht beinhaltet`DescribeSecret`, `PasswordSecretArn` nicht validiert wird und eine Warnmeldung angezeigt wird. Weitere Informationen finden Sie unter [AWS ParallelCluster `pcluster`Grundlegende Benutzerrichtlinie](iam-roles-in-parallelcluster-v3.md#iam-roles-in-parallelcluster-v3-base-user-policy).  
Wenn sich der Wert des Geheimnisses ändert, wird der Cluster *nicht* automatisch aktualisiert. Um den Cluster für den neuen geheimen Wert zu aktualisieren, müssen Sie die Rechenflotte mit dem [`pcluster update-compute-fleet`](pcluster.update-compute-fleet-v3.md) Befehl beenden und dann den folgenden Befehl vom Hauptknoten aus ausführen.  

```
$ sudo /opt/parallelcluster/scripts/directory_service/update_directory_service_password.sh
```
[Aktualisierungsrichtlinie: Die Rechenflotte muss gestoppt werden, damit diese Einstellung für ein Update geändert werden kann.](using-pcluster-update-cluster-v3.md#update-policy-compute-fleet-v3)

`DomainReadOnlyUser`(**Erforderlich**,`String`)  
Die Identität, die verwendet wird, um die AD-Domäne bei der Authentifizierung von Cluster-Benutzeranmeldungen nach Identitätsinformationen abzufragen. Sie entspricht dem aufgerufenen SSSD-LDAP-Parameter. `ldap_default_bind_dn` Verwenden Sie Ihre AD-Identitätsinformationen für diesen Wert.  
Geben Sie die Identität in der Form an, die für den spezifischen LDAP-Client erforderlich ist, der sich auf dem Knoten befindet:  
+ Microsoft AD:

  ```
  cn=ReadOnlyUser,ou=Users,ou=CORP,dc=corp,dc=example,dc=com
  ```
+ Einfache Anzeige:

  ```
  cn=ReadOnlyUser,cn=Users,dc=corp,dc=example,dc=com
  ```
[Aktualisierungsrichtlinie: Die Rechenflotte muss gestoppt werden, damit diese Einstellung für ein Update geändert werden kann.](using-pcluster-update-cluster-v3.md#update-policy-compute-fleet-v3)

`LdapTlsCaCert`(**Fakultativ**,`String`)  
Der absolute Pfad zu einem Zertifikatspaket, das die Zertifikate für jede Zertifizierungsstelle in der Zertifizierungskette enthält, die ein Zertifikat für die Domänencontroller ausgestellt hat. Er entspricht dem aufgerufenen SSSD-LDAP-Parameter. `ldap_tls_cacert`  
Ein Zertifikatspaket ist eine Datei, die aus der Verkettung verschiedener Zertifikate im PEM-Format besteht, das in Windows auch als DER Base64-Format bezeichnet wird. Es wird verwendet, um die Identität des AD-Domänencontrollers zu überprüfen, der als LDAP-Server fungiert.  
AWS ParallelCluster ist nicht verantwortlich für die anfängliche Platzierung von Zertifikaten auf Knoten. Als Clusteradministrator können Sie das Zertifikat im Hauptknoten manuell konfigurieren, nachdem der Cluster erstellt wurde, oder Sie können ein [Bootstrap-Skript](custom-bootstrap-actions-v3.md) verwenden. Alternativ können Sie ein Amazon Machine Image (AMI) verwenden, das das auf dem Hauptknoten konfigurierte Zertifikat enthält.  
[Simple AD](https://docs.aws.amazon.com/directoryservice/latest/admin-guide/directory_simple_ad.html) bietet keine LDAPS-Unterstützung. Informationen zur Integration eines Simple AD-Verzeichnisses finden Sie unter [So konfigurieren Sie einen LDAPS-Endpunkt für Simple AD](https://aws.amazon.com/blogs/security/how-to-configure-ldaps-endpoint-for-simple-ad/) im *AWS Sicherheitsblog*. AWS ParallelCluster  
[Aktualisierungsrichtlinie: Die Rechenflotte muss gestoppt werden, damit diese Einstellung für ein Update geändert werden kann.](using-pcluster-update-cluster-v3.md#update-policy-compute-fleet-v3)

`LdapTlsReqCert`(**Optional**,`String`)  
Gibt an, welche Prüfungen an Serverzertifikaten in einer TLS-Sitzung durchgeführt werden sollen. Es entspricht dem aufgerufenen SSSD-LDAP-Parameter. `ldap_tls_reqcert`  
Gültige Werte: `never`, `allow`, `try`, `demand` und `hard`.  
`never`, und `try` ermöglichen`allow`, dass Verbindungen auch dann fortgeführt werden können, wenn Probleme mit Zertifikaten gefunden werden.  
`demand`und `hard` ermöglichen die Fortsetzung der Kommunikation, falls keine Probleme mit Zertifikaten gefunden werden.  
Wenn der Clusteradministrator einen Wert verwendet, für den die erfolgreiche Überprüfung des Zertifikats nicht erforderlich ist, wird eine Warnmeldung an den Administrator zurückgegeben. Aus Sicherheitsgründen empfehlen wir, die Zertifikatsüberprüfung nicht zu deaktivieren.  
Der Standardwert ist `hard`.  
[Aktualisierungsrichtlinie: Die Rechenflotte muss gestoppt werden, damit diese Einstellung für ein Update geändert werden kann.](using-pcluster-update-cluster-v3.md#update-policy-compute-fleet-v3)

`LdapAccessFilter`(**Fakultativ**,`String`)  
Gibt einen Filter an, um den Verzeichniszugriff auf eine Untergruppe von Benutzern zu beschränken. Diese Eigenschaft entspricht dem aufgerufenen SSSD-LDAP-Parameter. `ldap_access_filter` Sie können damit Abfragen auf ein AD beschränken, das eine große Anzahl von Benutzern unterstützt.  
Dieser Filter kann den Benutzerzugriff auf den Cluster blockieren. Er hat jedoch keinen Einfluss auf die Auffindbarkeit blockierter Benutzer.  
Wenn diese Eigenschaft festgelegt ist, wird der SSSD-Parameter `access_provider` auf `ldap` intern von gesetzt AWS ParallelCluster und darf nicht durch die Einstellungen von [`DirectoryService`](#DirectoryService-v3)/[`AdditionalSssdConfigs`](#yaml-DirectoryService-AdditionalSssdConfigs)geändert werden.  
Wenn diese Eigenschaft weggelassen wird und kein benutzerdefinierter Benutzerzugriff in [`DirectoryService`](#DirectoryService-v3)/angegeben ist [`AdditionalSssdConfigs`](#yaml-DirectoryService-AdditionalSssdConfigs), können alle Benutzer im Verzeichnis auf den Cluster zugreifen.  
Beispiele:  

```
"!(cn=SomeUser*)"  # denies access to every user with an alias that starts with "SomeUser"
"(cn=SomeUser*)"   # allows access to every user with alias that starts with "SomeUser"
"memberOf=cn=TeamOne,ou=Users,ou=CORP,dc=corp,dc=example,dc=com" # allows access only to users in group "TeamOne".
```
[Aktualisierungsrichtlinie: Die Rechenflotte muss gestoppt werden, damit diese Einstellung für ein Update geändert werden kann.](using-pcluster-update-cluster-v3.md#update-policy-compute-fleet-v3)

`GenerateSshKeysForUsers`(**Optional**,`Boolean`)  
Definiert, ob unmittelbar nach ihrer ersten Authentifizierung auf dem Hauptknoten ein SSH-Schlüssel für Clusterbenutzer AWS ParallelCluster generiert wird.  
Wenn auf gesetzt`true`, wird für jeden Benutzer nach seiner ersten Authentifizierung auf dem Hauptknoten ein SSH-Schlüssel generiert und gespeichert, falls er nicht existiert. `USER_HOME_DIRECTORY/.ssh/id_rsa`  

Für einen Benutzer, der noch nicht auf dem Hauptknoten authentifiziert wurde, kann die erste Authentifizierung in den folgenden Fällen erfolgen:
+ Der Benutzer meldet sich zum ersten Mal mit seinem eigenen Passwort am Hauptknoten an.
+ Im Hauptknoten wechselt ein Sudoer zum ersten Mal zum Benutzer: `su USERNAME`
+ Im Hauptknoten führt ein Sudoer zum ersten Mal einen Befehl als Benutzer aus: `su -u USERNAME COMMAND`
Benutzer können den SSH-Schlüssel für nachfolgende Anmeldungen am Cluster-Kopfknoten und den Rechenknoten verwenden. Mit AWS ParallelCluster sind Kennwortanmeldungen an Cluster-Rechenknoten standardmäßig deaktiviert. Wenn sich ein Benutzer nicht am Hauptknoten angemeldet hat, werden keine SSH-Schlüssel generiert und der Benutzer kann sich nicht bei Rechenknoten anmelden.  
Der Standardwert ist `true`.  
[Aktualisierungsrichtlinie: Die Rechenflotte muss gestoppt werden, damit diese Einstellung für ein Update geändert werden kann.](using-pcluster-update-cluster-v3.md#update-policy-compute-fleet-v3)

`AdditionalSssdConfigs`(**Optional**,`Dict`)  
Ein Wörterbuch mit Schlüssel-Wert-Paaren, die SSSD-Parameter und Werte enthalten, die in die SSSD-Konfigurationsdatei auf Cluster-Instances geschrieben werden sollen. Eine vollständige Beschreibung der SSSD-Konfigurationsdatei finden Sie in den Manpages auf der Instanz und den zugehörigen Konfigurationsdateien. `SSSD`  
Die SSSD-Parameter und -Werte müssen mit AWS ParallelCluster der SSSD-Konfiguration kompatibel sein, wie in der folgenden Liste beschrieben.  
+ `id_provider`ist auf `ldap` intern von gesetzt AWS ParallelCluster und darf nicht geändert werden.
+ `access_provider`ist auf `ldap` intern gesetzt, AWS ParallelCluster wenn [`DirectoryService`](#DirectoryService-v3)/angegeben [`LdapAccessFilter`](#yaml-DirectoryService-LdapAccessFilter)wird, und diese Einstellung darf nicht geändert werden.

  Wenn [`DirectoryService`](#DirectoryService-v3)/weggelassen [`LdapAccessFilter`](#yaml-DirectoryService-LdapAccessFilter)wird, wird auch seine `access_provider` Angabe weggelassen. Wenn Sie beispielsweise `access_provider` auf `simple` in setzen [`AdditionalSssdConfigs`](#yaml-DirectoryService-AdditionalSssdConfigs), [`LdapAccessFilter`](#yaml-DirectoryService-LdapAccessFilter)darf [`DirectoryService`](#DirectoryService-v3)/nicht angegeben werden.
Die folgenden Konfigurationsausschnitte sind Beispiele für gültige Konfigurationen für. `AdditionalSssdConfigs`  
In diesem Beispiel wird die Debug-Ebene für SSSD-Protokolle aktiviert, die Suchbasis auf eine bestimmte Organisationseinheit beschränkt und das Zwischenspeichern von Anmeldeinformationen deaktiviert.  

```
DirectoryService:
  ...
  AdditionalSssdConfigs:
    debug_level: "0xFFF0"
    ldap_search_base: OU=Users,OU=CORP,DC=corp,DC=example,DC=com
    cache_credentials: False
```
Dieses Beispiel spezifiziert die Konfiguration einer SSSD. [https://www.mankier.com/5/sssd-simple](https://www.mankier.com/5/sssd-simple)`access_provider` Benutzern aus dem `EngineeringTeam` wird Zugriff auf das Verzeichnis gewährt. [`DirectoryService`](#DirectoryService-v3)/[`LdapAccessFilter`](#yaml-DirectoryService-LdapAccessFilter)darf in diesem Fall nicht gesetzt werden.  

```
DirectoryService:
  ...
  AdditionalSssdConfigs:
    access_provider: simple
    simple_allow_groups: EngineeringTeam
```
[Aktualisierungsrichtlinie: Die Rechenflotte muss gestoppt werden, damit diese Einstellung für ein Update geändert werden kann.](using-pcluster-update-cluster-v3.md#update-policy-compute-fleet-v3)

# `DeploymentSettings` Abschnitt
<a name="DeploymentSettings-cluster-v3"></a>

**Anmerkung**  
`DeploymentSettings`wird ab AWS ParallelCluster Version 3.4.0 hinzugefügt.

**(Optional)** Gibt die Konfiguration der Bereitstellungseinstellungen an.

```
DeploymentSettings:
  LambdaFunctionsVpcConfig:
    SecurityGroupIds:
      - string
    SubnetIds:
      - string
  DisableSudoAccessForDefaultUser: Boolean
  DefaultUserHome: string # 'Shared' or 'Local'
```

## `DeploymentSettings`-Eigenschaften
<a name="DeploymentSettings-cluster-v3.properties"></a>

### `LambdaFunctionsVpcConfig`
<a name="DeploymentSettings-cluster-v3-LambdaFunctionsVpcConfig"></a>

**(Optional)** Gibt die VPC-Konfigurationen der AWS Lambda Funktionen an. Weitere Informationen finden Sie unter [AWS Lambda VPC-Konfiguration in AWS ParallelCluster](lambda-vpc-v3.md).

```
LambdaFunctionsVpcConfig:
  SecurityGroupIds:
    - string
  SubnetIds:
    - string
```

#### `LambdaFunctionsVpcConfig properties`
<a name="DeploymentSettings-cluster-v3-LambdaFunctionsVpcConfig.properties"></a>

`SecurityGroupIds`(**Erforderlich**,`[String]`)  
Die Liste der Amazon VPC-Sicherheitsgruppen IDs , die an die Lambda-Funktionen angehängt sind.  
[Aktualisierungsrichtlinie: Wenn diese Einstellung geändert wird, ist das Update nicht zulässig.](using-pcluster-update-cluster-v3.md#update-policy-fail-v3)

`SubnetIds`(**Erforderlich**,) `[String]`  
Die Liste der Subnetze IDs , die an die Lambda-Funktionen angehängt sind.  
[Aktualisierungsrichtlinie: Wenn diese Einstellung geändert wird, ist das Update nicht zulässig.](using-pcluster-update-cluster-v3.md#update-policy-fail-v3)

**Anmerkung**  
Die Subnetze und Sicherheitsgruppen müssen sich in derselben VPC befinden.

### DisableSudoAccessForDefaultUser Eigentum
<a name="DeploymentSettings-cluster-v3-DisableSudoAccessForDefaultUser.property"></a>

**Anmerkung**  
Diese Konfigurationsoption wird nur mit Slurm Clustern unterstützt.

(Optional) Wenn`True`, werden die Sudo-Rechte des Standardbenutzers deaktiviert. Dies gilt für alle Knoten im Cluster.

```
# Main DeploymentSettings section in config yaml(applies to HN, CF and LN)
DeploymentSettings:
  DisableSudoAccessForDefaultUser: True
```

Um den Wert von zu aktualisieren`DisableSudoAccessForDefaultUser`, müssen Sie die Rechenflotte und alle Anmeldeknoten stoppen.

[Aktualisierungsrichtlinie: Die Rechenflotte und die Anmeldeknoten müssen gestoppt werden, damit diese Einstellung für ein Update geändert werden kann.](using-pcluster-update-cluster-v3.md#update-policy-compute-login-v3)

### DefaultUserHome Eigentum
<a name="DeploymentSettings-cluster-v3-DefaultUserHome.property"></a>

Wenn diese Option auf gesetzt ist`Shared`, verwendet der Cluster das Standard-Setup und teilt das Verzeichnis des Standardbenutzers im gesamten Cluster von`/home/<default user>`.

Wenn diese Option auf `Local` gesetzt ist, wird für den Hauptknoten, die Anmeldeknoten und die Rechenknoten jeweils ein eigenes lokales Standardbenutzerverzeichnis gespeichert`local/home/<default user>`.