Les traductions sont fournies par des outils de traduction automatique. En cas de conflit entre le contenu d'une traduction et celui de la version originale en anglais, la version anglaise prévaudra.
Passer de la version AWS ParallelCluster 2.x à la version 3.x
Les sections suivantes décrivent ce qui se passe lorsque vous passez de la version AWS ParallelCluster 2.x à la version 3.x, y compris les modifications d'une version à l'autre.
Actions Bootstrap personnalisées
Avec AWS ParallelCluster 3, vous pouvez spécifier différents scripts d'actions bootstrap personnalisés pour le nœud principal et les nœuds de calcul à l'aide des paramètres OnNodeStart (pre_installdans la AWS ParallelCluster version 2) et OnNodeConfigured (post_installdans la AWS ParallelCluster version 2) dans les SlurmQueuessections HeadNodeet Scheduling/. Pour de plus amples informations, veuillez consulter Actions de bootstrap personnalisées.
Les scripts d'actions bootstrap personnalisés développés pour AWS ParallelCluster 2 doivent être adaptés pour être utilisés dans AWS ParallelCluster 3 :
-
Nous ne recommandons pas d'utiliser
/etc/parallelcluster/cfnconfigetcfn_node_typede différencier les nœuds de tête des nœuds de calcul. Nous vous recommandons plutôt de spécifier deux scripts différents dans le HeadNodeet Scheduling/SlurmQueues. -
Si vous préférez continuer le chargement
/etc/parallelcluster/cfnconfigpour l'utiliser dans votre script d'actions bootstrap, notez que la valeur decfn_node_typeest modifiée de « MasterServer » à « HeadNode » (voir :Langage inclusif). -
Le AWS ParallelCluster 2, le premier argument d'entrée des scripts d'action bootstrap était l'URL S3 du script et était réservé. En AWS ParallelCluster 3, seuls les arguments configurés dans la configuration sont transmis aux scripts.
Avertissement
L'utilisation de variables internes fournies par le biais du /etc/parallelcluster/cfnconfig fichier n'est pas officiellement prise en charge. Ce fichier sera peut-être supprimé dans le cadre d'une future version.
AWS ParallelCluster 2.x et 3.x utilisent une syntaxe de fichier de configuration différente
AWS ParallelCluster La configuration 3.x utilise la syntaxe YAML. La référence complète se trouve à l'adresseFichiers de configuration.
En plus de nécessiter un format de fichier YAML, un certain nombre de sections de configuration, de paramètres et de valeurs de paramètres ont été mis à jour dans la version AWS ParallelCluster 3.x. Dans cette section, nous notons les principales modifications apportées à la AWS ParallelCluster configuration ainsi que des side-by-side exemples illustrant ces différences entre chaque version de AWS ParallelCluster.
Exemple de configuration de plusieurs files d'attente de planificateur avec l'hyperthreading activé et désactivé
AWS ParallelCluster 2 :
[cluster default] queue_settings = ht-enabled, ht-disabled ... [queue ht-enabled] compute_resource_settings = ht-enabled-i1 disable_hyperthreading = false [queue ht-disabled] compute_resource_settings = ht-disabled-i1 disable_hyperthreading = true [compute_resource ht-enabled-i1] instance_type = c5n.18xlarge [compute_resource ht-disabled-i1] instance_type = c5.xlarge
AWS ParallelCluster 3 :
... Scheduling: Scheduler: slurm SlurmQueues: - Name: ht-enabled Networking: SubnetIds: -compute_subnet_idComputeResources: - Name: ht-enabled-i1 DisableSimultaneousMultithreading: true InstanceType: c5n.18xlarge - Name: ht-disabled Networking: SubnetIds: -compute_subnet_idComputeResources: - Name: ht-disabled-i1 DisableSimultaneousMultithreading: false InstanceType: c5.xlarge
Exemple de nouvelle configuration du FSx système de fichiers Lustre
AWS ParallelCluster 2 :
[cluster default] fsx_settings = fsx ... [fsx fsx] shared_dir = /shared-fsx storage_capacity = 1200 imported_file_chunk_size = 1024 import_path = s3://amzn-s3-demo-bucketexport_path = s3://amzn-s3-demo-bucket/export_dir weekly_maintenance_start_time = 3:02:30 deployment_type = PERSISTENT_1 data_compression_type = LZ4
AWS ParallelCluster 3 :
... SharedStorage: - Name: fsx MountDir: /shared-fsx StorageType: FsxLustre FsxLustreSettings: StorageCapacity: 1200 ImportedFileChunkSize: 1024 ImportPath: s3://amzn-s3-demo-bucketExportPath: s3://amzn-s3-demo-bucket/export_dir WeeklyMaintenanceStartTime: "3:02:30" DeploymentType: PERSISTENT_1 DataCompressionType: LZ4
Exemple de configuration de cluster lors du montage d'un système de fichiers existant FSx pour Lustre
AWS ParallelCluster 2 :
[cluster default] fsx_settings = fsx ... [fsx fsx] shared_dir = /shared-fsx fsx_fs_id =fsx_fs_id
AWS ParallelCluster 3 :
... SharedStorage: - Name: fsx MountDir: /shared-fsx StorageType: FsxLustre FsxLustreSettings: FileSystemId:fsx_fs_id
Exemple de cluster doté de la pile logicielle Intel HPC Platform Specification
AWS ParallelCluster 2 :
[cluster default] enable_intel_hpc_platform = true ...
AWS ParallelCluster 3 :
... AdditionalPackages: IntelSoftware: IntelHpcPlatform: true
Remarques :
-
L'installation du logiciel Intel HPC Platform Specification est soumise aux termes et conditions du contrat de licence utilisateur final Intel
applicable.
Exemple de configurations IAM personnalisées, notamment : profil d'instance, rôle d'instance, politiques supplémentaires pour les instances et rôle des fonctions lambda associées au cluster
AWS ParallelCluster 2 :
[cluster default] additional_iam_policies = arn:aws:iam::aws:policy/AmazonS3ReadOnlyAccess,arn:aws:iam::aws:policy/AmazonDynamoDBReadOnlyAccess ec2_iam_role =ec2_iam_roleiam_lambda_role =lambda_iam_role...
AWS ParallelCluster 3 :
... Iam: Roles: CustomLambdaResources:lambda_iam_roleHeadNode: ... Iam: InstanceRole:ec2_iam_roleScheduling: Scheduler: slurm SlurmQueues: - Name: queue1 ... Iam: InstanceProfile:iam_instance_profile- Name: queue2 ... Iam: AdditionalIamPolicies: - Policy: arn:aws:iam::aws:policy/AmazonS3ReadOnlyAccess - Policy: arn:aws:iam::aws:policy/AmazonDynamoDBReadOnlyAccess
Remarques :
-
Pour AWS ParallelCluster 2, les paramètres IAM sont appliqués à toutes les instances d'un cluster et ne
additional_iam_policiespeuvent pas être utilisés conjointement avecec2_iam_role. -
Pour AWS ParallelCluster 3, vous pouvez définir différents paramètres IAM pour les nœuds de tête et de calcul et même spécifier des paramètres IAM différents pour chaque file d'attente de calcul.
-
Pour AWS ParallelCluster 3, vous pouvez utiliser un profil d'instance IAM comme alternative à un rôle IAM.
InstanceProfile,InstanceRoleou neAdditionalIamPoliciespeuvent pas être configurés ensemble.
Exemple d'actions de bootstrap personnalisées
AWS ParallelCluster 2 :
[cluster default] s3_read_resource = arn:aws:s3:::amzn-s3-demo-bucket/* pre_install = s3://amzn-s3-demo-bucket/scripts/pre_install.sh pre_install_args = 'R curl wget' post_install = s3://amzn-s3-demo-bucket/scripts/post_install.sh post_install_args = "R curl wget" ...
AWS ParallelCluster 3 :
... HeadNode: ... CustomActions: OnNodeStart: Script: s3://amzn-s3-demo-bucket/scripts/pre_install.sh Args: - R - curl - wget OnNodeConfigured: Script: s3://amzn-s3-demo-bucket/scripts/post_install.sh Args: ['R', 'curl', 'wget'] Iam: S3Access: - BucketName:amzn-s3-demo-bucketScheduling: Scheduler: slurm SlurmQueues: - Name: queue1 ... CustomActions: OnNodeStart: Script: s3://amzn-s3-demo-bucket/scripts/pre_install.sh Args: ['R', 'curl', 'wget'] OnNodeConfigured: Script: s3://amzn-s3-demo-bucket/scripts/post_install.sh Args: ['R', 'curl', 'wget'] Iam: S3Access: - BucketName:amzn-s3-demo-bucket
Exemple de cluster avec accès en lecture et en écriture aux ressources du compartiment S3
AWS ParallelCluster 2 :
[cluster default] s3_read_resource = arn:aws:s3:::amzn-s3-demo-bucket/read_only/* s3_read_write_resource = arn:aws:s3:::amzn-s3-demo-bucket/read_and_write/* ...
AWS ParallelCluster 3 :
... HeadNode: ... Iam: S3Access: - BucketName:amzn-s3-demo-bucketKeyName: read_only/ EnableWriteAccess: False - BucketName:amzn-s3-demo-bucketKeyName: read_and_write/ EnableWriteAccess: True Scheduling: Scheduler: slurm SlurmQueues: - Name: queue1 ... Iam: S3Access: - BucketName:amzn-s3-demo-bucketKeyName: read_only/ EnableWriteAccess: False - BucketName:amzn-s3-demo-bucketKeyName: read_and_write/ EnableWriteAccess: True
Langage inclusif
AWS ParallelCluster 3 utilise les mots « nœud principal » aux endroits où « maître » a été utilisé dans AWS ParallelCluster 2. Cela inclut les éléments suivants :
-
La variable exportée dans l'environnement de AWS Batch travail a été modifiée : de
MASTER_IPàPCLUSTER_HEAD_NODE_IP. -
Toutes les AWS CloudFormation sorties sont passées de
Master*àHeadNode*. -
Tous les tags NodeType et tags sont passés de
MasteràHeadNode.
Support du planificateur
AWS ParallelCluster 3.x ne prend pas en charge le moteur Son of Grid (SGE) et les planificateurs de couple.
Les AWS Batch commandesawsbhosts,,awsbkill, awsbout awsbqueuesawsbstat, et awsbsub sont distribuées sous la forme d'un package aws-parallelcluster-awsbatch-cli PyPI distinct. Ce package est installé AWS ParallelCluster sur le nœud principal. Vous pouvez toujours utiliser ces AWS Batch commandes depuis le nœud principal du cluster. Toutefois, si vous souhaitez utiliser des AWS Batch
commandes depuis un emplacement autre que le nœud principal, vous devez d'abord installer le package aws-parallelcluster-awsbatch-cli PyPI.
AWS ParallelCluster CLI
L'interface de ligne de AWS ParallelCluster commande (CLI) a été modifiée. La nouvelle syntaxe est décrite dansAWS ParallelCluster Commandes CLI. Le format de sortie de la CLI est une chaîne JSON
Configuration d'un nouveau cluster
La pcluster configure commande inclut des paramètres différents en AWS ParallelCluster 3 par rapport à AWS ParallelCluster 2. Pour de plus amples informations, veuillez consulter pcluster configure.
Notez également que la syntaxe du fichier de configuration a changé depuis AWS ParallelCluster 2. Pour une référence complète des paramètres de configuration du cluster, consultezFichier de configuration du cluster.
Création d'un nouveau cluster
AWS ParallelCluster La pcluster create commande de 2 a été remplacée par la pcluster
create-clustercommande.
Notez que le comportement par défaut de la AWS ParallelCluster version 2.x, sans -nw cette option, est d'attendre les événements de création du cluster, tandis que la commande AWS ParallelCluster 3.x revient immédiatement. La progression de la création du cluster peut être surveillée à l'aide de pcluster describe-cluster.
Un fichier de configuration AWS ParallelCluster 3 contient une seule définition de cluster, le -t paramètre n'est donc plus nécessaire.
Voici un exemple de fichier de configuration.
# AWS ParallelCluster v2$pcluster create \ -rREGION\ -cV2_CONFIG_FILE\ -nw \ -tCLUSTER_TEMPLATE\CLUSTER_NAME# AWS ParallelCluster v3$pcluster create-cluster \ --regionREGION\ --cluster-configurationV3_CONFIG_FILE\ --cluster-nameCLUSTER_NAME
Classer des clusters
La commande pcluster list AWS ParallelCluster 2.x doit être remplacée par une pcluster
list-clusterscommande.
Remarque : vous avez besoin de la CLI AWS ParallelCluster v2 pour répertorier les clusters créés avec les versions 2.x de AWS ParallelCluster. Découvrez Installation AWS ParallelCluster dans un environnement virtuel (recommandé) comment installer plusieurs versions de l' AWS ParallelCluster utilisation d'environnements virtuels.
# AWS ParallelCluster v2$pcluster list -rREGION# AWS ParallelCluster v3$pcluster list-clusters --regionREGION
Démarrage et arrêt d'un cluster
Les commandes pcluster start et pcluster stop AWS ParallelCluster 2.x doivent être remplacées par des pcluster update-compute-fleetcommandes.
Démarrage d'un parc informatique :
# AWS ParallelCluster v2$pcluster start \ -rREGION\CLUSTER_NAME# AWS ParallelCluster v3 - Slurm fleets$pcluster update-compute-fleet \ --regionREGION\ --cluster-nameCLUSTER_NAME\ --statusSTART_REQUESTED# AWS ParallelCluster v3 - AWS Batch fleets$pcluster update-compute-fleet \ --regionREGION\ --cluster-nameCLUSTER_NAME\ --statusENABLED
Arrêter un parc informatique :
# AWS ParallelCluster v2$pcluster stop \ -rREGION\CLUSTER_NAME# AWS ParallelCluster v3 - Slurm fleets$pcluster update-compute-fleet \ --regionREGION\ --cluster-nameCLUSTER_NAME\ --statusSTOP_REQUESTED# AWS ParallelCluster v3 - AWS Batch fleets$pcluster update-compute-fleet \ --regionREGION\ --cluster-nameCLUSTER_NAME\ --statusDISABLED
Connexion à un cluster
La commande pcluster ssh AWS ParallelCluster 2.x a des noms de paramètres différents dans la version AWS ParallelCluster 3.x. Consultez pcluster ssh.
Connexion à un cluster :
# AWS ParallelCluster v2$pcluster ssh \ -rREGION\CLUSTER_NAME\ -i~/.ssh/id_rsa# AWS ParallelCluster v3$pcluster ssh \ --regionREGION\ --cluster-nameCLUSTER_NAME\ -i~/.ssh/id_rsa
Mise à jour de configuration IMDS
À partir de la version 3.0.0, la prise en charge de la restriction de l'accès à l'IMDS du nœud principal (et aux informations d'identification du profil d'instance) à un sous-ensemble de superutilisateurs, par défaut, a AWS ParallelCluster été introduite. Pour de plus amples informations, veuillez consulter Propriétés de Imds.