Contribuisci a migliorare questa pagina
Per contribuire a questa guida per l’utente, seleziona il link Edit this page on GitHub che si trova nel riquadro destro di ogni pagina.
Informazioni su come implementare carichi di lavoro e componenti aggiuntivi su Amazon EKS
I carichi di lavoro vengono implementati in container, a loro volta implementati in pod in Kubernetes. Un pod include uno o più container. In genere, uno o più pod che forniscono lo stesso servizio vengono implementati in un servizio Kubernetes. Dopo aver implementato più pod che forniscono lo stesso servizio, puoi:
-
Visualizzare le informazioni sui carichi di lavoro in esecuzione su ogni cluster utilizzando il Console di gestione AWS.
-
Dimensionare verticalmente i pod verso l’alto o verso il basso con Vertical Pod Autoscaler di Kubernetes.
-
Dimensionare orizzontalmente verso l’alto o verso il basso il numero di pod necessari per soddisfare la domanda con Horizontal Pod Autoscaler di Kubernetes.
-
Creare un Network Load Balancer esterno (per i pod accessibili a internet) o interno (per i pod privati) per bilanciare il traffico di rete tra i pod. Il load balancer indirizza il traffico al livello 4 del modello OSI.
-
Creare un Application Load Balancer per bilanciare il traffico delle applicazioni tra i pod. Il load balancer di applicazione indirizza il traffico al livello 7 del modello OSI.
-
Se sei un nuovo utente di Kubernetes, questo argomento aiuta a implementare un’applicazione di esempio.
-
È possibile limitare gli indirizzi IP assegnabili a un servizio con
externalIPs.