Unterstützung für die Verbesserung dieser Seite beitragen
Um zu diesem Benutzerhandbuch beizutragen, klicken Sie auf den Link Diese Seite auf GitHub bearbeiten, der sich im rechten Bereich jeder Seite befindet.
Vorbereitung der Vernetzung für Hybridknoten
Dieses Thema bietet einen Überblick über die Netzwerkkonfiguration, die Sie vor der Erstellung Ihres Amazon-EKS-Clusters und dem Hinzufügen von Hybridknoten konfigurieren müssen. In diesem Leitfaden wird davon ausgegangen, dass Sie die Voraussetzungen für die hybride Netzwerkkonnektivität mithilfe von AWS Site-to-Site VPN, AWS Direct Connect oder Ihrer eigenen VPN-Lösung erfüllt haben.
Konfiguration des On-Premises-Netzwerks
Mindestanforderungen an das Netzwerk
Für eine optimale Leistung empfehlen wir Ihnen eine zuverlässige Netzwerkverbindung mit einer Geschwindigkeit von mindestens 100 Mbit/s und einer maximalen Rundlauf-Latenz von 200 ms für die Verbindung der Hybridknoten mit der AWS-Region. Dies sind allgemeine Leitlinien, die für die meisten Anwendungsfälle geeignet sind, jedoch keine strengen Anforderungen darstellen. Die Bandbreiten- und Latenzanforderungen können je nach Anzahl der Hybridknoten und Ihren Workload-Eigenschaften variieren, z. B. Größe der Anwendungs-Images, Anwendungselastizität, Überwachungs- und Protokollierungskonfigurationen und Anwendungsabhängigkeiten beim Zugriff auf in anderen AWS-Services gespeicherte Daten. Wir empfehlen Ihnen, vor der Bereitstellung in der Produktionsumgebung Tests mit Ihren eigenen Anwendungen und Umgebungen durchzuführen, um sicherzustellen, dass Ihre Netzwerkkonfiguration den Anforderungen Ihrer Workloads entspricht.
On-premises-Knoten- und Pod-CIDRs
Identifizieren Sie die Knoten- und Pod-CIDRs, die Sie für Ihre Hybridknoten und die darauf ausgeführten Workloads verwenden werden. Die Knoten-CIDR wird aus Ihrem On-Premises-Netzwerk zugewiesen, und die Pod-CIDR wird aus Ihrer Container Network Interface (CNI) zugewiesen, wenn Sie ein Überlagerungsnetzwerk für Ihre CNI verwenden. Sie übergeben Ihre On-Premises-Knoten-CIDRs und Pod-CIDRs als Eingaben, wenn Sie Ihren EKS-Cluster mit den Feldern RemoteNodeNetwork und RemotePodNetwork erstellen. Die CIDRs Ihrer On-Premises-Knoten müssen in Ihrem On-Premises-Netzwerk routingfähig sein. Informationen zur CIDR-Routing-Fähigkeit des On-Premises-Pods finden Sie im folgenden Abschnitt.
Die CIDR-Blöcke für den On-Premises-Knoten und den Pod müssen die folgenden Anforderungen erfüllen:
-
Muss innerhalb eines der folgenden
IPv4-RFC-1918-Bereiche liegen:10.0.0.0/8,172.16.0.0/12oder192.168.0.0/16. -
Beachten Sie, dass sich die VPC-CIDR für Ihren EKS-Cluster und die
IPv4CIDR Ihres Kubernetes-Service nicht überschneiden dürfen.
On-premises-Pod-Netzwerk-Routing
Bei der Verwendung von EKS-Hybridknoten empfehlen wir generell, die CIDRs Ihrer On-Premises-Pods in Ihrem On-Premises-Netzwerk routingfähig zu machen, um eine vollständige Cluster-Kommunikation und Funktionalität zwischen Cloud- und On-Premises-Umgebungen zu ermöglichen.
Routingfähige Pod-Netzwerke
Wenn Sie Ihr Pod-Netzwerk in Ihrem lokalen Netzwerk routingfähig machen können, befolgen Sie die nachstehenden Anweisungen.
-
Konfigurieren Sie das
RemotePodNetwork-Feld für Ihren EKS-Cluster mit Ihrer On-Premises-Pod-CIDR, Ihre VPC-Routing-Tabellen mit Ihrer On-Premises-Pod-CIDR und Ihre EKS-Cluster-Sicherheitsgruppe mit Ihrer On-Premises-Pod-CIDR. -
Es gibt mehrere Techniken, mit denen Sie Ihren On-Premises-Pod CIDR in Ihrem On-Premises-Netzwerk routingfähig machen können, darunter Border Gateway Protocol (BGP), statische Routen oder andere benutzerdefinierte Routing-Lösungen. BGP ist die empfohlene Lösung, da es skalierbarer und einfacher zu verwalten ist als alternative Lösungen, die eine benutzerdefinierte oder manuelle Routing-Konfiguration erfordern. AWS unterstützt die BGP-Funktionen von Cilium und Calico für die Bekanntmachung für Pod-CIDRs. Weitere Informationen finden Sie unter CNI für Hybridknoten konfigurieren und Routingfähige Fern-Pod-CIDRs.
-
Webhooks können auf Hybridknoten ausgeführt werden, da die EKS-Steuerebene mit den Webhooks zugewiesenen Pod-IP-Adressen kommunizieren kann.
-
In Cloud-Knoten ausgeführte Workloads können direkt mit Workloads kommunizieren, die auf Hybridknoten im selben EKS-Cluster ausgeführt werden.
-
Andere AWS-Services, wie AWS Application Load Balancers und Amazon Managed Service for Prometheus, können mit Workloads kommunizieren, die auf Hybridknoten ausgeführt werden, um den Netzwerkverkehr auszugleichen und Pod-Metriken zu erfassen.
Nicht routingfähige Pod-Netzwerke
Wenn Sie Ihre Pod-Netzwerke in Ihrem On-Premises-Netzwerk nicht routingfähig machen können, befolgen Sie die nachstehenden Anweisungen.
-
Webhooks können nicht in Hybridknoten ausgeführt werden, da Webhooks eine Verbindung von der EKS-Steuerebene zu den den Webhooks zugewiesenen Pod-IP-Adressen erfordern. In diesem Fall empfehlen wir, Webhooks auf Cloud-Knoten im selben EKS-Cluster wie Ihre Hybridknoten auszuführen. Weitere Informationen finden Sie unter Konfiguration von Webhooks für Hybridknoten.
-
Workloads auf Cloud-Knoten können nicht direkt mit Workloads auf Hybridknoten kommunizieren, wenn VPC CNI für Cloud-Knoten und Cilium oder Calico für Hybridknoten verwendet werden.
-
Verwenden Sie Verteilung des Service-Datenverkehrs, um den Datenverkehr auf die Zone zu beschränken, aus der er stammt. Weitere Informationen zur Verteilung des Service-Datenverkehrs finden Sie unter Verteilung des Service-Datenverkehrs konfigurieren.
-
Konfigurieren Sie Ihr CNI so, dass es ausgehende Maskierung oder Network Address Translation (NAT) für den Pod-Datenverkehr verwendet, wenn dieser Ihre On-Premises-Hosts verlässt. Dies ist in Cilium standardmäßig aktiviert. Calico erfordert, dass
natOutgoingauftruefestgelegt ist. -
Andere AWS-Services wie AWS Application Load Balancer und Amazon Managed Service für Prometheus können nicht mit Workloads kommunizieren, die in Hybridknoten ausgeführt werden.
Zugriff während der Installation und Aktualisierung von Hybridknoten erforderlich
Während der Installation, bei der Sie die Abhängigkeiten der Hybridknoten auf Ihren Hosts installieren, müssen Sie Zugriff auf die folgenden Domains haben. Dieser Vorgang kann einmalig beim Erstellen Ihrer Betriebssystem-Images oder zur Laufzeit auf jedem Host durchgeführt werden. Dies gilt sowohl für die Erstinstallation als auch für das Upgrade der Kubernetes-Version Ihrer Hybridknoten.
Einige Pakete werden mit dem Standard-Paket-Manager des Betriebssystems installiert. Für AL2023 und RHEL wird der yum-Befehl für die Installation von containerd, ca-certificates, iptables und amazon-ssm-agent verwendet. Für Ubuntu, apt wird für die Installation von containerd, ca-certificates und iptables und snap wird für die Installation von amazon-ssm-agent verwendet.
| Komponente | URL | Protokoll | Port |
|---|---|---|---|
|
EKS-Knoten-Artefakte (S3) |
https://hybrid-assets.eks.amazonaws.com |
HTTPS |
443 |
|
https://eks. |
HTTPS |
443 |
|
|
https://api.ecr. |
HTTPS |
443 |
|
|
EKS-ECR-Endpunkte |
Informationen zu regionalen Endpunkten finden Sie unter Amazon-Container-Image-Registries für Amazon-EKS-Add-Ons anzeigen. |
HTTPS |
443 |
|
SSM-Binärendpunkt 1 |
https://amazon-ssm- |
HTTPS |
443 |
|
https://ssm. |
HTTPS |
443 |
|
|
IAM-Anywhere-Binärendpunkt 2 |
https://rolesanywhere.amazonaws.com |
HTTPS |
443 |
|
https://rolesanywhere. |
HTTPS |
443 |
|
|
Endpunkte des Paket-Managers des Betriebssystems |
Die Endpunkte des Paket-Repositorys sind betriebssystemspezifisch und können je nach geografischer Region variieren. |
HTTPS |
443 |
Anmerkung
1 Der Zugriff auf die AWS-SSM-Endpunkte ist nur erforderlich, wenn Sie AWS-SSM-Hybridaktivierungen für Ihren On-Premises-IAM-Anmeldeinformationsanbieter verwenden.
2 Der Zugriff auf die AWS-IAM-Endpunkte ist nur erforderlich, wenn Sie AWS IAM Roles Anywhere für Ihren On-Premises-IAM-Anmeldeinformationsanbieter verwenden.
Zugriff für den fortlaufenden Cluster-Betrieb erforderlich
Für den kontinuierlichen Cluster-Betrieb ist der folgende Netzwerkzugang für Ihre On-Premises-Firewall erforderlich.
Wichtig
Je nach Ihrer Wahl des CNI müssen Sie zusätzliche Netzwerk-Zugriffsregeln für die CNI-Ports konfigurieren. Weitere Informationen finden Sie in der Cilium-Dokumentation
| Typ | Protokoll | Richtung | Port | Quelle | Ziel | Verwendung |
|---|---|---|---|---|---|---|
|
HTTPS |
TCP |
Ausgehend |
443 |
Fern-Knoten-CIDR(s) |
EKS-Cluster-IPs 1 |
kubelet zum Kubernetes-API-Server |
|
HTTPS |
TCP |
Ausgehend |
443 |
Fern-Pod-CIDR(s) |
EKS-Cluster-IPs 1 |
Pod zum Kubernetes-API-Server |
|
HTTPS |
TCP |
Ausgehend |
443 |
Fern-Knoten-CIDR(s) |
Aktualisierung der Anmeldeinformationen für SSM-Hybridaktivierungen und SSM-Heartbeats alle 5 Minuten |
|
|
HTTPS |
TCP |
Ausgehend |
443 |
Fern-Knoten-CIDR(s) |
Aktualisierung der Anmeldeinformationen für IAM Roles Anywhere |
|
|
HTTPS |
TCP |
Ausgehend |
443 |
Fern-Pod-CIDR(s) |
Pod zum STS-Endpunkt, nur für IRSA erforderlich |
|
|
HTTPS |
TCP |
Ausgehend |
443 |
Fern-Knoten-CIDR(s) |
Knoten zum Amazon-EKS-Auth-Endpunkt, nur für Amazon EKS Pod Identity erforderlich |
|
|
HTTPS |
TCP |
Eingehend |
10250 |
EKS-Cluster-IPs 1 |
Fern-Knoten-CIDR(s) |
Kubernetes-API-Server zu Kubelet |
|
HTTPS |
TCP |
Eingehend |
Webhook-Ports |
EKS-Cluster-IPs 1 |
Fern-Pod-CIDR(s) |
Kubernetes-API-Server zu Webhooks |
|
HTTPS |
TCP, UDP |
Eingehend, ausgehend |
53 |
Fern-Pod-CIDR(s) |
Fern-Pod-CIDR(s) |
Pod zu CoreDNS. Wenn Sie mindestens eine Replik von CoreDNS in der Cloud ausführen, müssen Sie DNS-Datenverkehr zum VPC zulassen, auf dem CoreDNS ausgeführt wird. |
|
Benutzerdefiniert |
Benutzerdefiniert |
Eingehend, ausgehend |
App-Ports |
Fern-Pod-CIDR(s) |
Fern-Pod-CIDR(s) |
Pod zu Pod |
Anmerkung
1 Die IPs des EKS-Clusters. Weitere Informationen finden Sie im folgenden Abschnitt zu elastischen Netzwerkschnittstellen von Amazon EKS.
Amazon-EKS-Netzwerkschnittstellen
Amazon EKS fügt Netzwerkschnittstellen an die Subnetze in der VPC an, die Sie bei der Cluster-Erstellung übergeben, um die Kommunikation zwischen der EKS-Steuerebene und Ihrer VPC zu ermöglichen. Die von Amazon EKS erstellten Netzwerkschnittstellen finden Sie nach der Cluster-Erstellung in der Amazon-EC2-Konsole oder mit der AWS CLI. Die ursprünglichen Netzwerkschnittstellen werden gelöscht und neue Netzwerkschnittstellen erstellt, wenn Änderungen an Ihrem EKS-Cluster vorgenommen werden, z. B. Upgrades der Kubernetes-Version. Sie können den IP-Bereich für die Amazon-EKS-Netzwerkschnittstellen einschränken, indem Sie eingeschränkte Subnetzgrößen für die Subnetze verwenden, die Sie während der Cluster-Erstellung übergeben. Dadurch wird es einfacher, Ihre On-Premises-Firewall so zu konfigurieren, dass eingehende/ausgehende Konnektivität zu diesem bekannten, eingeschränkten Satz von IPs zugelassen wird. Um zu steuern, in welchen Subnetzen Netzwerkschnittstellen erstellt werden, können Sie die Anzahl der Subnetze begrenzen, die Sie beim Erstellen eines Clusters angeben, oder Sie können die Subnetze nach dem Erstellen des Clusters aktualisieren.
Die von Amazon EKS bereitgestellten Netzwerkschnittstellen verfügen über eine Beschreibung im Format Amazon EKS . Im folgenden Beispiel finden Sie einen AWS-CLI-Befehl, mit dem Sie die IP-Adressen der von Amazon EKS bereitgestellten Netzwerkschnittstellen ermitteln können. Ersetzen Sie your-cluster-name
VPC_ID durch die ID der VPC, die Sie bei der Cluster-Erstellung übergeben haben.
aws ec2 describe-network-interfaces \ --query 'NetworkInterfaces[?(VpcId ==VPC_ID&& contains(Description,Amazon EKS))].PrivateIpAddress'
AWS-VPC- und Subnetz-Einrichtung
Die vorhandenen VPC- und Subnetz-Anforderungen für Amazon EKS gelten für Cluster mit Hybridknoten. Darüber hinaus darf sich Ihr VPC-CIDR nicht mit den CIDRs Ihrer On-Premises-Knoten und Pods überschneiden. Sie müssen in Ihrer VPC-Routing-Rabelle Routen für Ihre On-Premises-Knoten und optional Pod-CIDRs konfigurieren. Diese Routen müssen so eingerichtet werden, dass der Datenverkehr an das Gateway weitergeleitet wird, das Sie für Ihre Hybridnetzwerkkonnektivität verwenden. Dabei handelt es sich üblicherweise um ein Virtual Private Gateway (VGW) oder ein Transit Gateway (TGW). Wenn Sie TGW oder VGW verwenden, um Ihre VPC mit Ihrer On-Premises-Umgebung zu verbinden, müssen Sie eine TGW- oder VGW-Anbindung für Ihre VPC erstellen. Ihre VPC muss DNS-Hostnamen und die DNS-Auflösung unterstützen.
Die folgenden Schritte werden über die AWS CLI ausgeführt. Sie können diese Ressourcen auch im AWS-Managementkonsole oder mit anderen Schnittstellen wie AWS CloudFormation, AWS CDK oder Terraform erstellen.
Schritt 1: VPC erstellen
-
Führen Sie den folgenden Befehl aus, um eine VPC zu erstellen. Ersetzen Sie
VPC_CIDRdurch einenIPv4-RFC-1918-CIDR-Bereich (privat) oder einen Nicht-RFC-1918-CIDR-Bereich (öffentlich) (zum Beispiel10.0.0.0/16). Hinweis: Die DNS-Auflösung, eine EKS-Anforderung, ist für die VPC standardmäßig aktiviert.aws ec2 create-vpc --cidr-blockVPC_CIDR -
Aktivieren Sie DNS-Host-Namen für Ihre VPC. Beachten Sie, dass die DNS-Auflösung für die VPC standardmäßig aktiviert ist. Ersetzen Sie
VPC_IDdurch die ID der VPC, die Sie im vorherigen Schritt erstellt haben.aws ec2 modify-vpc-attribute --vpc-idVPC_ID--enable-dns-hostnames
Schritt 2: Subnetze erstellen
Erstellen Sie mindestens 2 Subnetze. Amazon EKS verwendet diese Subnetze für die Cluster-Netzwerkschnittstellen. Weitere Informationen finden Sie unter Anforderungen und Überlegungen zu Subnetzen.
-
Mit dem folgenden Befehl können Sie die Availability Zones für eine AWS-Region ermitteln. Ersetzen Sie
us-west-2durch Ihre Region.aws ec2 describe-availability-zones \ --query 'AvailabilityZones[?(RegionName ==us-west-2)].ZoneName' -
Erstellen Sie ein Subnetz. Ersetzen Sie
VPC_IDdurch die ID der VPC. Ersetzen SieSUBNET_CIDRdurch den CIDR-Block für Ihr Subnetz (z. B. 10.0.1.0/24 ). Ersetzen SieAZdurch die Availability Zone, in der das Subnetz erstellt werden soll (z. B. „us-west-2a“). Die von Ihnen erstellten Subnetze müssen sich in mindestens zwei verschiedenen Availability Zones befinden.aws ec2 create-subnet \ --vpc-idVPC_ID\ --cidr-blockSUBNET_CIDR\ --availability-zoneAZ
(Optional) Schritt 3: VPC mit Amazon VPC Transit Gateway (TGW) oder AWS Direct Connect Virtual Private Gateway (VGW) verbinden
Wenn Sie ein TGW oder VGW verwenden, fügen Sie Ihr VPC an das TGW oder VGW an. Weitere Informationen finden Sie unter Amazon-VPC-Anhänge in Amazon VPC Transit Gateways oder Zuordnungen von AWS Direct Connect Virtual Private Gateway.
Transit-Gateway
Führen Sie den folgenden Befehl aus, um ein Transit Gateway anzufügen. Ersetzen Sie VPC_ID durch die ID der VPC. Ersetzen Sie SUBNET_ID1 und SUBNET_ID2 durch die IDs der Subnetze, die Sie im vorherigen Schritt erstellt haben. Ersetzen Sie TGW_ID durch die ID Ihres TGW.
aws ec2 create-transit-gateway-vpc-attachment \ --vpc-idVPC_ID\ --subnet-idsSUBNET_ID1 SUBNET_ID2\ --transit-gateway-idTGW_ID
Virtual Private Gateway
Führen Sie den folgenden Befehl aus, um ein Transit Gateway anzufügen. Ersetzen Sie VPN_ID durch die ID Ihres VGW. Ersetzen Sie VPC_ID durch die ID der VPC.
aws ec2 attach-vpn-gateway \ --vpn-gateway-idVPN_ID\ --vpc-idVPC_ID
(Optional) Schritt 4: Routing-Tabelle erstellen
Sie können die Haupt-Routing-Tabelle für die VPC ändern oder eine benutzerdefinierte Routing-Tabelle erstellen. Mit den folgenden Schritten erstellen Sie eine benutzerdefinierte Routing-Tabelle mit den Routen zu On-Premises-Knoten und Pod-CIDRs. Weitere Informationen finden Sie unter Subnetz-Routing-Tabellen. Ersetzen Sie VPC_ID durch die ID der VPC.
aws ec2 create-route-table --vpc-idVPC_ID
Schritt 5: Routen für On-Premises-Knoten und -Pods erstellen
Erstellen Sie Routen in der Routing-Tabelle für jeden Ihrer On-Premises-Fern-Knoten. Sie können die Haupt-Routing-Tabelle für die VPC ändern oder die benutzerdefinierte Routing-Tabelle verwenden, die Sie im vorherigen Schritt erstellt haben.
Die nachfolgenden Beispiele veranschaulichen, wie Sie Routen für Ihre On-Premises-Knoten- und Pod-CIDRs erstellen. In den Beispielen wird ein Transit Gateway (TGW) verwendet, um die VPC mit der On-Premises-Umgebung zu verbinden. Wenn Sie über mehrere On-Premises-Knoten- und Pod-CIDRs verfügen, wiederholen Sie die Schritte für jede CIDR.
-
Wenn Sie ein Internet-Gateway oder ein Virtual Private Gateway (VGW) verwenden, ersetzen Sie
--transit-gateway-iddurch--gateway-id. -
Ersetzen Sie
RT_IDdurch die ID der Routing-Tabelle, die Sie im vorherigen Schritt erstellt haben. -
Ersetzen Sie
REMOTE_NODE_CIDRdurch den CIDR-Bereich, den Sie für Ihre Hybridknoten verwenden werden. -
Ersetzen Sie
REMOTE_POD_CIDRdurch den CIDR-Bereich, den Sie für die auf Hybridknoten ausgeführten Pods verwenden. Der Pod-CIDR-Bereich entspricht der Container Networking Interface (CNI)-Konfiguration, die in der Regel ein Überlagerungsnetzwerk On-Premises verwendet. Weitere Informationen finden Sie unter CNI für Hybridknoten konfigurieren. -
Ersetzen Sie
TGW_IDdurch die ID Ihres TGW.
Fern-Knoten-Netzwerk
aws ec2 create-route \ --route-table-idRT_ID\ --destination-cidr-blockREMOTE_NODE_CIDR\ --transit-gateway-idTGW_ID
Fern-Pod-Netzwerk
aws ec2 create-route \ --route-table-idRT_ID\ --destination-cidr-blockREMOTE_POD_CIDR\ --transit-gateway-idTGW_ID
(Optional) Schritt 6: Subnetze der Routing-Tabelle zuordnen
Wenn Sie im vorherigen Schritt eine benutzerdefinierte Routing-Tabelle erstellt haben, ordnen Sie jede der im vorherigen Schritt erstellten Subnetze Ihrer benutzerdefinierten Routing-Tabelle zu. Wenn Sie die VPC-Haupt-Routing-Tabelle ändern, werden die Subnetze automatisch der Haupt-Routing-Tabelle der VPC zugeordnet, und Sie können diesen Schritt überspringen.
Führen Sie den folgenden Befehl für jedes der Subnetze aus, die Sie in den vorherigen Schritten erstellt haben. Ersetzen Sie RT_ID durch die Routing-Tabelle, die Sie im vorherigen Schritt erstellt haben. Ersetzen Sie SUBNET_ID durch die ID eines Subnetzes.
aws ec2 associate-route-table --route-table-idRT_ID--subnet-idSUBNET_ID
Konfiguration der Cluster-Sicherheitsgruppe
Für den fortlaufenden Cluster-Betrieb ist der folgende Zugriff für Ihre EKS-Cluster-Sicherheitsgruppe erforderlich. Amazon EKS erstellt automatisch die erforderlichen Regeln für eingehende Sicherheitsgruppen für Hybridknoten, wenn Sie Ihren Cluster mit konfigurierten Fern-Knoten- und Pod-Netzwerken erstellen oder aktualisieren. Da Sicherheitsgruppen standardmäßig den gesamten ausgehenden Datenverkehr zulassen, ändert Amazon EKS die ausgehenden Regeln der Cluster-Sicherheitsgruppe für Hybridknoten nicht automatisch. Wenn Sie die Cluster-Sicherheitsgruppe anpassen möchten, können Sie den Datenverkehr auf die Regeln in der folgenden Tabelle beschränken.
| Typ | Protokoll | Richtung | Port | Quelle | Ziel | Verwendung |
|---|---|---|---|---|---|---|
|
HTTPS |
TCP |
Eingehend |
443 |
Fern-Knoten-CIDR(s) |
N/A |
Kubelet zum Kubernetes API-Server |
|
HTTPS |
TCP |
Eingehend |
443 |
Fern-Pod-CIDR(s) |
N/A |
Pods, die Zugriff auf den K8s-API-Server erfordern, wenn das CNI kein NAT für den Pod-Datenverkehr verwendet. |
|
HTTPS |
TCP |
Ausgehend |
10250 |
N/A |
Fern-Knoten-CIDR(s) |
Kubernetes-API-Server zu Kubelet |
|
HTTPS |
TCP |
Ausgehend |
Webhook-Ports |
N/A |
Fern-Pod-CIDR(s) |
Kubernetes-API-Server zum Webhook (beim Ausführen von Webhooks in Hybridknoten) |
Wichtig
Beschränkungen für Sicherheitsgruppenregeln: Amazon-EC2-Sicherheitsgruppen verfügen standardmäßig über maximal 60 eingehende Regeln. Die eingehenden Regeln der Sicherheitsgruppe werden möglicherweise nicht angewendet, wenn die Sicherheitsgruppe Ihres Clusters diese Beschränkung erreicht. In diesem Fall kann es erforderlich sein, die fehlenden eingehenden Regeln manuell hinzuzufügen.
Verantwortung für die Bereinigung von CIDR: Wenn Sie Fern-Knoten- oder Pod-Netzwerke aus EKS-Clustern entfernen, löscht EKS die entsprechenden Sicherheitsgruppenregeln nicht automatisch. Sie sind dafür verantwortlich, nicht verwendete Fern-Knoten- oder Pod-Netzwerke manuell aus Ihren Sicherheitsgruppenregeln zu entfernen.
Weitere Informationen zu der Cluster-Sicherheitsgruppe, die Amazon EKS erstellt, finden Sie unter Anforderungen der Amazon-EKS-Sicherheitsgruppe für Cluster anzeigen.
(Optional) Manuelle Konfiguration der Sicherheitsgruppe
Sollten Sie zusätzliche Sicherheitsgruppen erstellen oder die automatisch erstellten Regeln ändern müssen, können Sie die folgenden Befehle als Referenz verwenden. Standardmäßig erstellt der folgende Befehl eine Sicherheitsgruppe, die den gesamten ausgehenden Datenverkehr zulässt. Sie können den ausgehenden Zugriff einschränken, sodass nur die oben genannten Regeln gelten. Wenn Sie eine Einschränkung der ausgehenden Regeln in Erwägung ziehen, empfehlen wir Ihnen, alle Ihre Anwendungen und die Pod-Konnektivität gründlich zu testen, bevor Sie Ihre geänderten Regeln auf einen Produktions-Cluster anwenden.
-
Ersetzen Sie im ersten Befehl
SG_NAMEdurch einen Namen für Ihre Sicherheitsgruppe -
Ersetzen Sie im ersten Befehl
VPC_IDdurch die ID der VPC, die Sie im vorherigen Schritt erstellt haben. -
Ersetzen Sie im zweiten Befehl
SG_IDdurch die ID der Sicherheitsgruppe, die Sie im ersten Befehl erstellt haben -
Ersetzen Sie im zweiten Befehl
REMOTE_NODE_CIDRundREMOTE_POD_CIDRdurch die Werte für Ihre Hybridknoten und Ihr On-Premises-Netzwerk.
aws ec2 create-security-group \ --group-nameSG_NAME\ --description "security group for hybrid nodes" \ --vpc-idVPC_ID
aws ec2 authorize-security-group-ingress \ --group-idSG_ID\ --ip-permissions '[{"IpProtocol": "tcp", "FromPort": 443, "ToPort": 443, "IpRanges": [{"CidrIp": "REMOTE_NODE_CIDR"}, {"CidrIp": "REMOTE_POD_CIDR"}]}]'