Aidez à améliorer cette page
Les traductions sont fournies par des outils de traduction automatique. En cas de conflit entre le contenu d'une traduction et celui de la version originale en anglais, la version anglaise prévaudra.
Pour contribuer à ce guide de l'utilisateur, cliquez sur le GitHub lien Modifier cette page sur qui se trouve dans le volet droit de chaque page.
Les traductions sont fournies par des outils de traduction automatique. En cas de conflit entre le contenu d'une traduction et celui de la version originale en anglais, la version anglaise prévaudra.
Découvrez comment déployer des charges de travail et des modules complémentaires sur Amazon EKS
Vos applications sont déployées dans des conteneurs, qui sont déployés dans des pods dans Kubernetes. Un pod comprend un ou plusieurs conteneurs. En règle générale, un ou plusieurs pods qui fournissent le même service sont déployés dans un service Kubernetes. Une fois que vous avez déployé plusieurs pods qui fournissent le même service, vous pouvez :
-
Afficher des informations sur les applications s'exécutant sur chacun de vos clusters à l'aide de AWS Management Console.
-
Augmentez ou réduisez verticalement les pods à l’aide du Kubernetes Vertical Pod Autoscaler.
-
Ajustez horizontalement le nombre de pods nécessaires pour répondre à la demande à la hausse ou à la baisse grâce à l’autoscaler horizontal de pods Kubernetes.
-
Créer un dispositif d’équilibrage de charge de réseau externe (pour les pods accessibles depuis Internet) ou interne (pour les pods privés) afin d’équilibrer le trafic réseau entre les pods. L'équilibreur de charge achemine le trafic à la couche 4 du modèle OSI.
-
Création d’un Application Load Balancer pour équilibrer le trafic des applications entre les pods. L'Application Load Balancer achemine le trafic à la couche 7 du modèle OSI.
-
Si vous débutez avec Kubernetes, cette rubrique vous aide. Déployez un exemple d’application.
-
Vous pouvez restreindre les adresses IP qui peuvent être affectées à un service avec
externalIPs.