Die vorliegende Übersetzung wurde maschinell erstellt. Im Falle eines Konflikts oder eines Widerspruchs zwischen dieser übersetzten Fassung und der englischen Fassung (einschließlich infolge von Verzögerungen bei der Übersetzung) ist die englische Fassung maßgeblich.
Erstellung einer Amazon-ECS-Bereitstellung mit fortlaufender Aktualisierung
Erstellen SIe einen Service, um eine festgelegte Anzahl von Instances einer Aufgabendefinition gleichzeitig in einem Cluster ausführen. Wenn eine Ihrer Aufgaben ausfällt oder anhält, startet der Amazon-ECS-Service-Scheduler eine andere Instance Ihrer Aufgabendefinition, um sie zu ersetzen. Dies trägt dazu bei, dass die von Ihnen gewünschte Anzahl von Aufgaben im Service erhalten bleibt.
Entscheiden Sie sich für die folgenden Konfigurationsparameter, bevor Sie einen Service erstellen:
-
Es gibt zwei Rechenoptionen, die Ihre Aufgaben verteilen.
-
Eine capacity provider strategy (Strategie für Kapazitätsanbieter) veranlasst Amazon ECS, Ihre Aufgaben an einen oder mehrere Kapazitätsanbieter zu verteilen.
Wenn Sie Ihre Workloads in Amazon ECS Managed Instances ausführen möchten, müssen Sie die Option zur Kapazitätsanbieter-Strategie verwenden.
-
Ein Starttyp veranlasst Amazon ECS, unsere Aufgaben direkt auf Fargate oder auf den in Ihren Clustern registrierten EC2 Instances zu starten.
Wenn Sie Ihre Workloads in Amazon ECS Managed Instances ausführen möchten, müssen Sie die Option zur Kapazitätsanbieter-Strategie verwenden.
-
-
Aufgabendefinitionen, die den
awsvpc-Netzwerkmodus oder Dienste, die für die Verwendung eines Load Balancer konfiguriert sind, verwenden, müssen über eine Netzwerkkonfiguration verfügen. Standardmäßig wählt die Konsole die standardmäßige Amazon VPC zusammen mit allen Subnetzen und der Standardsicherheitsgruppe innerhalb der standardmäßigen Amazon VPC aus. -
Die Standardstrategie für die Aufgabenplatzierung verteilt Aufgaben gleichmäßig auf Availability Zones.
Wir empfehlen Ihnen, Availability-Zone-Neuausgleich zu verwenden, um eine hohe Verfügbarkeit Ihres Service sicherzustellen. Weitere Informationen finden Sie unter Ausgleich eines Amazon ECS-Service über mehrere Availability Zones.
-
Wenn Sie den Launch Type (Starttyp) für Ihre Servicebereitstellung verwenden, startet der Service standardmäßig in den Subnetzen in Ihrer Cluster-VPC.
-
Für die Strategie für Kapazitätsanbieter, wählt die Konsole standardmäßig eine Rechenoption aus. Im Folgenden wird die Reihenfolge beschrieben, in der die Konsole einen Standardwert auswählt:
-
Wenn der Cluster eine standardmäßige Kapazitätsanbieter-Strategie definiert hat, ist diese ausgewählt.
-
Wenn in Ihrem Cluster keine standardmäßige Kapazitätsanbieter-Strategie definiert ist, Sie jedoch die Fargate-Kapazitätsanbieter dem Cluster hinzugefügt haben, wird eine benutzerdefinierte Kapazitätsanbieter-Strategie verwendet, die den
FARGATE-Kapazitätsanbieter benutzt. -
Wenn für Ihren Cluster keine standardmäßige Kapazitätsanbieterstrategie definiert ist, Sie aber einen oder mehrere Amazon EC2 Auto Scaling Scaling-Gruppenkapazitätsanbieter zum Cluster hinzugefügt haben, ist die Option Benutzerdefiniert (Erweitert) verwenden ausgewählt und Sie müssen die Strategie manuell definieren.
-
Wenn in Ihrem Cluster keine Standardstrategie für Kapazitätsanbieter definiert ist und keine Kapazitätsanbieter zum Cluster hinzugefügt wurden, ist der Fargate Starttyp ausgewählt.
-
-
Die Standardoptionen für die Erkennung von Bereitstellungsfehlern sind die Verwendung der Option Amazon-ECS-Bereitstellungs-Schutzschalter mit der Option Rollback bei Fehlern.
Weitere Informationen finden Sie unter So erkennt der Schutzschalter in Amazon ECS fehlgeschlagene Bereitstellungen.
-
Entscheiden Sie, ob Amazon ECS die gewünschte Anzahl an Aufgaben in Ihrem Service automatisch erhöhen oder verringern soll. Weitere Informationen finden Sie unter Skalieren Sie Ihren Amazon ECS-Service automatisch.
-
Wenn Sie eine Anwendung mit anderen Anwendungen, die in Amazon ECS laufen, verbinden müssen, bestimmen Sie die Option, die zu Ihrer Architektur passt. Weitere Informationen finden Sie unter Amazon-ECS-Services verbinden.
-
Wenn Sie einen Service erstellen, der den Amazon-ECS-Schutzschalter verwendet, erstellt Amazon ECS eine Servicebereitstellung und eine Service-Revision. Diese Ressourcen ermöglichen es Ihnen, detaillierte Informationen zum Service-Verlauf einzusehen. Weitere Informationen finden Sie unter Serviceverlauf mithilfe von Amazon ECS-Servicebereitstellungen anzeigen.
Informationen darüber, wie Sie einen Service mit dem erstellen AWS CLI, finden Sie create-servicein der AWS Command Line Interface Referenz.
Informationen zum Erstellen eines Dienstes mit AWS CloudFormation finden Sie AWS::ECS::Serviceim AWS CloudFormation Benutzerhandbuch unter.
Einen Service mit den Standardoptionen erstellen
Mit der Konsole können Sie schnell einen Service erstellen und bereitstellen. Der Service hat die folgenden Konfigurationseinstellungen:
-
Wird in der VPC und in Subnetzen bereitgestellt, die Ihrem Cluster zugeordnet sind
-
Stellt eine Aufgabe bereit
-
Nutzt die laufende Bereitstellung
-
Verwendet die Kapazitätsanbieter-Strategie mit Ihrem Standardkapazitätsanbieter
-
Verwendet den Bereitstellungsschutzschalter, um Fehler zu erkennen, und legt die Option darauf fest, dass die Bereitstellung bei einem Fehler automatisch zurückgesetzt wird
Folgen Sie diesen Schritten, um einen Service mit den Standardparametern bereitzustellen.
So erstellen Sie einen Service (Amazon-ECS-Konsole)
Öffnen Sie die Konsole auf https://console.aws.amazon.com/ecs/Version
2. -
Klicken Sie im Navigationsbereich auf Cluster.
-
Wählen Sie auf der Cluster-Seite den Cluster aus, in dem Sie den Service erstellen möchten.
-
Wählen Sie auf der Registerkarte Services die Option Create (Erstellen) aus.
Die Seite Service erstellen wird angezeigt.
-
Führen Sie unter Service-Details die folgenden Schritte aus:
-
Geben Sie für Aufgabendefinition die Aufgabendefinitionsfamilie und die zu verwendende Revision ein.
-
Wählen Sie für Service name (Servicename) einen Namen für Ihren Service aus.
-
-
Um ECS Exec zum Debuggen des Services zu verwenden, wählen Sie unter Konfiguration zur Fehlerbehebung die Option ECS Exec einschalten aus.
-
Führen Sie im Abschnitt Bereitstellungskonfiguration Folgendes aus:
-
Geben Sie für Desired tasks (Gewünschte Aufgaben) die Anzahl der Aufgaben an, die im Service gestartet und aufrecht erhalten werden sollen.
-
-
(Optional) Um Ihren Service und Ihre Aufgaben besser identifizieren zu können, erweitern Sie den Bereich Tags (Tags) und konfigurieren Sie dann Ihre Tags.
Damit Amazon ECS automatisch alle neu gestarteten Aufgaben mit dem Clusternamen und den Task-Definition-Tags versieht, wählen Sie Amazon ECS Managed Tags aktivieren und anschließend Aufgabendefinitionen aus.
Damit Amazon ECS automatisch alle neu gestarteten Aufgaben mit dem Clusternamen und den Service-Tags versieht, wählen Sie Amazon ECS Managed Tags aktivieren und anschließend Service aus.
Hinzufügen oder Entfernen eines Tag.
-
[Ein Tag hinzufügen] Wählen Sie Add tag (Tag hinzufügen) und führen Sie dann das Folgende aus:
-
Geben Sie bei Key (Schlüssel) den Schlüsselnamen ein.
-
Geben Sie bei Value (Wert) den Wert des Schlüssels ein.
-
-
[Tag entfernen] Wählen Sie neben dem Tag die Option Remove tag (Tag löschen) aus.
-
Erstellen eines Services mit definierten Parametern
Folgen Sie diesen Schritten, um einen Service unter Verwendung von definierten Parametern bereitzustellen.
So erstellen Sie einen Service (Amazon-ECS-Konsole)
Öffnen Sie die Konsole auf https://console.aws.amazon.com/ecs/v2
. -
Bestimmen Sie die Ressource, von der aus Sie den Service starten.
So starten Sie einen Service von Schritte Cluster
-
Wählen Sie auf der Seite Cluster den Cluster aus, den Sie im Service erstellen möchten.
-
Wählen Sie auf der Registerkarte Services die Option Create (Erstellen) aus.
Aufgabendefinition -
Wählen Sie auf der Seite mit den Aufgabendefinitionen das Optionsfeld neben der Aufgabendefinition aus.
-
Wählen Sie im Menü Bereitstellen die Option Service erstellen aus.
Die Seite Service erstellen wird angezeigt.
-
-
Führen Sie unter Service-Details die folgenden Schritte aus:
-
Geben Sie für Aufgabendefinition die zu verwendende Aufgabendefinition ein. Wählen Sie dann für Revision die zu verwendende Revision aus.
-
Wählen Sie für Service name (Servicename) einen Namen für Ihren Service aus.
-
-
Wählen Sie für Bestehender Cluster den Cluster aus.
Wählen Sie Cluster erstellen, um die Aufgabe auf einem neuen Cluster auszuführen
-
Wählen Sie aus, wie Ihre Aufgaben auf Ihre Cluster-Infrastruktur verteilt werden. Wählen Sie unter Datenverarbeitungskonfiguration Ihre Option aus.
Rechenoptionen Schritte Kapazitätsanbieter-Strategie
-
Wählen Sie unter Rechenoptionen die Option Kapazitätsanbieter-Strategie aus.
-
Wählen Sie eine Strategie aus:
-
Um die standardmäßige Kapazitätsanbieter-Strategie des Clusters zu verwenden, wählen Sie Use cluster default (Cluster-Standard verwenden).
-
Wenn Ihr Cluster nicht über eine Standard-Kapazitätsanbieter-Strategie verfügt oder Sie eine benutzerdefinierte Strategie verwenden möchten, wählen Sie Benutzerdefiniert verwenden, Kapazitätsanbieter-Strategie hinzufügen und definieren dann Ihre benutzerdefinierte Kapazitätsanbieter-Strategie, indem Sie eine Basis, einen Kapazitätsanbieter und ein Gewicht angeben.
-
Anmerkung
Damit Kapazitätsanbieter in einer Strategie verwendet werden kann, muss er dem Cluster zugeordnet sein.
Art des Starts -
Wählen Sie im Bereich Rechenoptionen die Option Starttyp aus.
-
Wählen Sie unter Launch type (Starttyp) einen Starttyp aus.
-
(Optional) Wenn Sie Fargate verwenden, geben Sie für Plattformversion die zu verwendende Plattformversion an. Ist keine Plattformversion angegeben, wird die Plattformversion
LATESTverwendet.
-
-
Um ECS Exec zum Debuggen des Services zu verwenden, wählen Sie unter Konfiguration zur Fehlerbehebung die Option ECS Exec einschalten aus.
-
Führen Sie im Abschnitt Bereitstellungskonfiguration Folgendes aus:
-
Für Service type (Service-Typ) wählen Sie die Strategie für die Serviceplanung.
-
Wählen Sie Daemon (Daemon), damit der Scheduler genau eine Aufgabe auf jede aktiven Container-Instance verteilt, die alle Bedingungen für die Aufgabenplatzierung erfüllt.
-
Damit der Scheduler die gewünschte Anzahl von Aufgaben in Ihrem Cluster platziert und verwaltet, wählen Sie Replica (Replikat).
-
-
Wenn Sie Replica (Replikat) gewählt haben, geben Sie bei Desired tasks (Gewünschte Aufgaben) die Anzahl der Aufgaben ein, die im Service gestartet und gepflegt werden sollen.
-
Wenn Sie Replikat auswählen, damit Amazon ECS die Verteilung der Aufgaben auf die Availability Zones überwacht und sie bei einem Ungleichgewicht neu verteilt, wählen Sie unter Service-Neuausgleich der Availability Zone die Option Service-Neuausgleich der Availability Zone aus.
-
Geben Sie für Health Check Grance Period den Zeitraum (in Sekunden) ein, für den der Service Scheduler fehlerhafte ELB-, VPC Lattice- und Container-Integritätsprüfungen ignoriert, nachdem eine Aufgabe zum ersten Mal gestartet wurde. Wenn Sie keinen Wert für den Kulanzzeitraum für die Integritätsprüfung angeben, wird der Standardwert 0 verwendet.
-
Ermitteln Sie den Bereitstellungstyp für Ihren Service. Erweitern Sie Bereitstellungsoptionen und geben Sie dann die folgenden Parameter an
Bereitstellungstyp Schritte Fortlaufende Aktualisierung -
Für Min running tasks (Min. laufende Aufgaben) geben Sie die untere Grenze für die Anzahl der Aufgaben im Service an, die während eines Einsatzes in diesem
RUNNING-Zustand verbleiben müssen, und zwar als Prozentsatz der gewünschten Anzahl von Aufgaben (aufgerundet auf die nächste ganze Zahl). Weitere Informationen finden Sie unter Bereitstellungs-Konfiguration. -
Geben Sie für Max running tasks (Max. laufende Aufgaben) die Obergrenze für die Anzahl der Aufgaben im Service ein, die sich während einer Bereitstellung im Status
RUNNINGoderPENDINGbefinden dürfen, und zwar als Prozentsatz der gewünschten Anzahl von Aufgaben (abgerundet auf die nächste Ganzzahl).
-
-
Um zu konfigurieren, wie Amazon ECS Bereitstellungsfehler erkennt und behandelt, erweitern Sie Deployment failure detection (Erkennung von Bereitstellungsfehlern) und wählen Sie dann Ihre Optionen.
-
Um eine Bereitstellung anzuhalten, wenn die Aufgaben nicht gestartet werden können, wählen Sie Use the Amazon ECS deployment circuit breaker (Verwenden des Amazon-ECS-Bereitstellungsschutzschalters).
Wenn Sie möchten, dass die Software die Bereitstellung automatisch auf den letzten abgeschlossenen Bereitstellungsstatus zurücksetzt, wenn der Bereitstellungs-Schutzschalter die Bereitstellung auf einen fehlgeschlagenen Status setzt, wählen Sie Rollback bei Fehler aus.
-
Um eine Bereitstellung auf der Grundlage von Anwendungsmetriken zu beenden, wählen Sie CloudWatch Alarm (en) verwenden aus. Wählen Sie dann unter CloudWatch Alarmname die Alarme aus. Um einen neuen Alarm zu erstellen, gehen Sie zur CloudWatch Konsole.
Damit die Software die Bereitstellung automatisch auf den Status der letzten abgeschlossenen Bereitstellung zurücksetzt, wenn ein CloudWatch Alarm die Bereitstellung in einen fehlgeschlagenen Zustand versetzt, wählen Sie Rollback bei Fehlern.
-
-
-
Wenn Ihre Aufgabendefinition den
awsvpc-Netzwerkmodus verwendet, können Sie eine benutzerdefinierte Netzwerkkonfiguration angeben, indem Sie Netzwerke erweitern und dann wie folgt vorgehen:-
Wählen Sie für VPC die VPC aus, die Sie verwenden möchten.
-
Wählen Sie für Subnets (Subnetze) ein oder mehrere Subnetze in der VPC aus, die der Aufgaben-Scheduler bei der Platzierung Ihrer Aufgaben berücksichtigen soll.
-
Für die VPC-Sicherheitsgruppe können Sie entweder eine vorhandene Sicherheitsgruppe auswählen oder eine neue erstellen. Um eine vorhandene Sicherheitsgruppe zu verwenden, wählen Sie die Sicherheitsgruppe aus und fahren Sie mit dem nächsten Schritt fort. Um eine neue Sicherheitsgruppe zu erstellen, wählen Sie Create a new security group. Sie müssen einen Sicherheitsgruppennamen und eine Beschreibung angeben und dann eine oder mehrere eingehende Regeln für die Sicherheitsgruppe hinzufügen.
-
Geben Sie für die Öffentliche IP an, ob der Elastic-Network-Schnittstelle (ENI) der Aufgabe eine öffentliche IP-Adresse automatisch zugewiesen wird.
AWS Fargate Aufgaben kann eine öffentliche IP-Adresse zugewiesen werden, wenn sie in einem öffentlichen Subnetz ausgeführt werden, sodass sie eine Route zum Internet haben. EC2Aufgaben kann mit diesem Feld keine öffentliche IP zugewiesen werden. Weitere Informationen finden Sie unter Netzwerkoptionen für Amazon-ECS-Aufgaben für Fargate und Zuweisen einer Netzwerkschnittstelle für eine Amazon-ECS-Aufgabe. .
-
-
(Optional) Um Ihren Service mit Service Connect zu verbinden, erweitern Sie Service Connect und geben Sie dann Folgendes an:
-
Wählen Sie Service Connect einschalten aus.
-
Geben Sie unter Service Connect configuration (Service-Connect-Konfiguration) den Client-Modus an.
-
Wenn Ihr Service eine Netzwerk-Client-Anwendung ausführt, die nur eine Verbindung zu anderen Services im Namespace herstellen muss, wählen Sie Nur Client-Seite aus.
-
Wenn Ihr Service eine Netzwerk- oder Webservice-Anwendung ausführt und Endpunkte für diesen Service bereitstellen muss und eine Verbindung zu anderen Services im Namespace herstellt, wählen Sie Client and server (Client und Server) aus.
-
-
Um einen Namespace zu verwenden, der nicht der Standard-Cluster-Namespace ist, wählen Sie für Namespace den Service-Namespace aus. Dabei kann es sich um einen Namespace handeln, der separat in demselben AWS-Region in Ihrer Region erstellt wurde, AWS-Konto oder um einen Namespace in derselben Region, der mithilfe von AWS Resource Access Manager ()AWS RAM mit Ihrem Konto geteilt wird. Weitere Informationen zur gemeinsamen Nutzung von AWS Cloud Map Namespaces finden Sie unter Kontenübergreifende gemeinsame Nutzung von AWS Cloud Map Namespaces im Entwicklerhandbuch.AWS Cloud Map
-
(Optional) Geben Sie eine Protokollkonfiguration an. Wählen Sie Protokollsammlung verwenden aus. Die Standardoption sendet Container-Logs an Logs. CloudWatch Die anderen Protokolltreiberoptionen werden mit konfiguriert AWS FireLens. Weitere Informationen finden Sie unter Amazon ECS-Protokolle an einen AWS Service senden oder AWS Partner.
Im Folgenden wird jedes Container-Protokollziel ausführlicher beschrieben.
-
Amazon CloudWatch — Konfigurieren Sie die Aufgabe, um Container-Logs an CloudWatch Logs zu senden. Es werden die standardmäßigen Protokolltreiberoptionen bereitgestellt, mit denen in Ihrem Namen eine CloudWatch Protokollgruppe erstellt wird. Um einen anderen Protokollgruppen-Namen anzugeben, ändern Sie die Werte der Treiberoption.
-
Amazon Data Firehose – Konfigurieren Sie die Aufgabe, dass Container-Protokolle an Firehose gesendet werden. Die Standardoptionen für den Protokolltreiber werden bereitgestellt, wodurch die Protokolle an einen Bereitstellungsdatenstrom von Firehose gesendet werden. Um einen anderen Namen für den Bereitstellungsdatenstrom anzugeben, ändern Sie die Werte der Treiberoption.
-
Amazon Kinesis Data Streams – Konfigurieren Sie die Aufgabe, dass Container-Protokolle an Kinesis Data Streams gesendet werden. Die Standardoptionen für den Protokolltreiber werden bereitgestellt, wodurch Protokolle an einen Datenstrom von Kinesis Data Streams gesendet werden. Um einen anderen Datenstrom-Namen anzugeben, ändern Sie die Werte der Treiberoption.
-
Amazon OpenSearch Service — Konfigurieren Sie die Aufgabe, um Container-Logs an eine OpenSearch Service-Domain zu senden. Die Optionen für den Protokolltreiber müssen bereitgestellt werden.
-
Amazon S3 – Konfigurieren Sie die Aufgabe, dass Container-Protokolle an einen Amazon-S3-Bucket gesendet werden. Die Standardoptionen für den Protokolltreiber werden bereitgestellt, Sie müssen jedoch einen gültigen Amazon-S3-Bucket-Namen angeben.
-
(Optional) Gehen Sie wie folgt vor, um Zugriffsprotokolle zu aktivieren:
-
Erweitern Sie die Konfiguration des Zugriffsprotokolls. Wählen Sie als Format entweder JSON oder
TEXT. Um Abfrageparameter in Zugriffsprotokolle aufzunehmen, wählen Sie Abfrageparameter einbeziehen aus.
-
-
-
(Optional) Um Ihren Service mit der Serviceerkennung zu verbinden, erweitern Sie Serviceerkennung und führen Sie Folgendes aus:
-
Wählen Sie Serviceerkennung verwenden aus.
-
Um einen neuen Namespace zu verwenden, wählen Sie unter Namespace konfigurieren die Option Neuen Namespace erstellen aus, und geben Sie dann einen Namespace-Namen und eine Beschreibung ein. Um einen vorhandenen Namespace zu verwenden, wählen Sie Vorhandenen Namespace auswählen und wählen Sie dann den Namespace aus, den Sie verwenden möchten.
-
Geben Sie zur Serviceerkennung Informationen über den Service an, z. B. den Namen und die Beschreibung des Services.
-
Damit Amazon ECS regelmäßig Zustandsprüfungen auf Container-Ebene durchführt, wählen Sie Zustandpropagation für Amazon-ECS-Aufgaben aktivieren aus.
-
Wählen Sie für DNS record type (DNS-Datensatztyp) den DNS-Datensatztyp aus, der für Ihren Service erstellt werden soll. Die Amazon-ECS-Serviceerkennung unterstützt abhängig von dem Netzwerkmodus, der durch Ihre Aufgabendefinition angegeben wird, nur A- und SRV-Datensätze. Informationen über diese Datensatztypen finden Sie unter Unterstützte DNS-Datensatztypen im Amazon Route 53-Entwicklerhandbuch.
-
Wenn die von Ihrer Serviceaufgabe angegebene Aufgabendefinition als Netzwerkmodus
bridgeoderhostverwendet, werden nur Datensätze vom Typ SRV unterstützt. Wählen Sie eine Kombination aus Containername und -Port aus, die dem Datensatz zugeordnet werden soll. -
Wenn die Aufgabendefinition, die Ihre Serviceaufgabe angibt, den
awsvpc-Netzwerkmodus verwendet, wählen Sie entweder den Datensatztyp A oder SRV. Wenn Sie A auswählen, fahren Sie mit dem nächsten Schritt fort. Wenn Sie SRV wählen, geben Sie entweder den Port an, unter dem der Service gefunden werden kann, oder eine Kombination aus Containername und Port, die dem Datensatz zugeordnet werden soll.
Geben Sie für TTL die Zeit in Sekunden ein, für die ein Datensatz von DNS-Resolvern und Webbrowsern zwischengespeichert wird.
-
-
-
(Optional) Um Ihren Service mithilfe von VPC Lattice zu verbinden, erweitern Sie VPC Lattice und gehen Sie dann wie folgt vor:
-
Wählen Sie VPC Lattice einschalten aus.
-
Wählen Sie für Infrastrukturrolle die Infrastrukturrolle aus.
Wenn Sie keine Rolle erstellt haben, wählen Sie Infrastrukturrolle erstellen aus.
-
Wählen Sie unter Zielgruppen die Zielgruppe(n) aus. Sie müssen mindestens eine Zielgruppe auswählen und können maximal fünf haben. Um zusätzliche Zielgruppen hinzuzufügen, wählen Sie Zielgruppe hinzufügen aus. Wählen Sie den Port-Namen, das Protokoll und den Port für jede gewählte Zielgruppe aus.
Zum Löschen einer Zielgruppe, wählen Sie Entfernen aus.
Anmerkung
-
Wenn Sie bestehende Zielgruppen hinzufügen möchten, müssen Sie die AWS CLI verwenden. Anweisungen zum Hinzufügen von Zielgruppen mithilfe von finden Sie unter register-targets in der AWS Command Line Interface Referenz. AWS CLI
-
Obwohl einem VPC-Lattice-Service mehrere Zielgruppen zugeordnet werden können, kann jede Zielgruppe jeweils nur einem einzigen Service hinzugefügt werden.
-
-
Um die VPC-Lattice-Konfiguration abzuschließen, indem Sie in der VPC-Lattice-Konsole Ihre neuen Zielgruppen in die Listener-Standardaktion oder in die Regeln eines vorhandenen VPC-Lattice-Services aufnehmen. Weitere Informationen finden Sie unter Listener-Regeln für Ihren VPC-Lattice-Service.
-
-
(Optional) Um einen Load Balancer für Ihren Service zu konfigurieren, erweitern Sie Load balancing (Load Balancing).
Wählen Sie den Load Balancer aus.
So verwenden Sie diesen Load Balancer Vorgehensweise Application Load Balancer
-
Wählen Sie für Load Balancer-Typ Application Load Balancer aus.
-
Wählen Sie Erstellen eines neuen Load Balancers, um einen neuen Application Load Balancer zu erstellen, oder Verwenden eines vorhandenen Load Balancers um einen vorhandenen Application Load Balancer auszuwählen.
-
Geben Sie für Load balancer name (Name des Load Balancers) einen eindeutigen Namen ein.
-
Für Choose container to load balance (Container für den Lastausgleich wählen) wählen Sie den Container aus, der den Service hostet.
-
Geben Sie für Listener (Zuhörer) einen Port und ein Protokoll für den Application Load Balancer an, an dem der Application Load Balancer auf Verbindungsanfragen lauschen soll. Standardmäßig wird der Load Balancer so konfiguriert, dass er Port 80 und HTTP verwendet.
-
Geben Sie für Target group name (Name der Zielgruppe) einen Namen und ein Protokoll für die Zielgruppe ein, an die der Application Load Balancer Anforderungen weiterleitet. Standardmäßig leitet die Zielgruppe Anforderungen an den ersten Container weiter, der in Ihrer Aufgabendefinition definiert ist.
-
Geben Sie für Verzögerung der Registrierungsaufhebung die Anzahl der Sekunden ein, die der Load Balancer benötigt, um den Zielstatus in
UNUSEDzu ändern. Standardmäßig ist ein Zeitraum von 300 Sekunden festgelegt. -
Geben Sie für Health check path (Pfad für die Zustandsprüfung) einen Pfad an, der in Ihrem Container vorhanden ist, an den der Application Load Balancer regelmäßig Anforderungen senden soll, um den Verbindungszustand zwischen dem Application Load Balancer und dem Container zu überprüfen. Der Standard ist das Root-Verzeichnis (
/).
Network Load Balancer -
Wählen Sie für Load balancer type (Load-Balancer-Typ) Network Load Balancer (Network Load Balancer) aus.
-
Wählen Sie für Load Balancer (Load Balancer) einen vorhandenen Network Load Balancer.
-
Für Choose container to load balance (Container für den Lastausgleich wählen) wählen Sie den Container aus, der den Service hostet.
-
Geben Sie unter Target group name (Name der Zielgruppe) einen Namen und ein Protokoll für die Zielgruppe ein, an die der Network Load Balancer Anfragen weiterleitet. Standardmäßig leitet die Zielgruppe Anforderungen an den ersten Container weiter, der in Ihrer Aufgabendefinition definiert ist.
-
Geben Sie für Verzögerung der Registrierungsaufhebung die Anzahl der Sekunden ein, die der Load Balancer benötigt, um den Zielstatus in
UNUSEDzu ändern. Standardmäßig ist ein Zeitraum von 300 Sekunden festgelegt. -
Geben Sie für Health check path (Pfad für die Zustandsprüfung) einen vorhandenen Pfad innerhalb Ihres Containers ein, an den der Network Load Balancer regelmäßig Anfragen sendet, um den Verbindungszustand zwischen dem Application Load Balancer und dem Container zu überprüfen. Der Standard ist das Root-Verzeichnis (
/).
-
-
(Optional) Um den Service Amazon EC2 Auto Scaling zu konfigurieren, erweitern Sie Service Auto Scaling und geben Sie dann die folgenden Parameter an. Um Predicte Auto Scaling zu verwenden, das vergangene Ladedaten aus Verkehrsströmen betrachtet, konfigurieren Sie es, nachdem Sie den Service erstellt haben. Weitere Informationen finden Sie unter Verwenden Sie historische Muster, um Amazon ECS-Services mit vorausschauender Skalierung zu skalieren.
-
Um das Auto Scaling der Services zu verwenden, wählen Sie Auto Scaling des Services.
-
Geben Sie unter Mindestanzahl an Aufgaben, die Untergrenze der Anzahl der Aufgaben an, die das Service-Auto-Scaling verwenden kann. Die gewünschte Anzahl wird diese Anzahl nicht unterschreiten.
-
Geben Sie unter Höchstanzahl an Aufgaben die Obergrenze der Anzahl der Aufgaben an, die das Service-Auto-Scaling verwenden kann. Die gewünschte Anzahl wird diese Anzahl nicht überschreiten.
-
Wählen Sie den Richtlinien-Typ aus. Wählen Sie unter Skalierungsrichtlinientyp eine der folgenden Optionen aus.
Zur Verwendung dieses Richtlinientyps Vorgehensweise Zielverfolgung
-
Wählen Sie für Scaling policy type (Typ der Skalierungsrichtlinie) Target tracking (Ziel-Nachverfolgung) aus.
-
Geben Sie unter Policy name (Richtlinienname) einen Namen für diese Richtlinie ein.
-
Für ECS-Service-Metrik, wählen Sie eine der folgenden Metriken aus.
-
ECSServiceDurchschnitt CPUUtilization — Durchschnittliche CPU-Auslastung des Service.
-
ECSServiceAverageMemoryUtilization— Durchschnittliche Speicherauslastung des Dienstes.
-
ALBRequestCountPerTarget— Anzahl der abgeschlossenen Anfragen pro Ziel in einer Application Load Balancer Balancer-Zielgruppe.
-
-
Für Target value (Zielwert) geben Sie den Wert ein, den der Service für die ausgewählte Metrik beibehält.
-
Geben Sie für Ruhephase vor dem Aufskalieren die Zeitspanne in Sekunden ein, die nach einer Aufskalierungsaktion (Aufgaben hinzufügen) verstreichen muss, bevor eine weitere Aufskalierungsaktion gestartet werden kann.
-
Geben Sie für Ruhephase vor dem Abskalieren die Zeitspanne in Sekunden ein, die nach einer Abskalierungsaktion (Aufgaben entfernen) gewartet werden muss, bevor eine weitere Abskalierungsaktion gestartet werden kann.
-
Um zu verhindern, dass die Richtlinie eine Abskalierungsaktivität ausführt, wählen Sie Turn off scale-in (Abskalierung ausschalten).
-
• (Optional) Wählen Sie Abskalieren deaktivieren aus, wenn Sie möchten, dass Ihre Skalierungsrichtlinie bei erhöhtem Datenverkehr aufskaliert, sie aber nicht bei abnehmenden Datenverkehr abskalieren muss.
Schrittweise Skalierung -
Wählen Sie für Scaling policy type (Typ der Skalierungsrichtlinie) Step scaling (Schrittweise Skalierung) aus.
-
Geben Sie unter Richtlinienname den Namen für diese Richtlinie ein.
-
Geben Sie unter Alarm name (Alarmname) einen eindeutigen Namen für den Alarm ein.
-
Wählen Sie für die Amazon-ECS-Service-Metrik die Metrik, die für den Alarm verwendet werden soll.
-
Wählen Sie für Statistik die Alarmstatistik aus.
-
Wählen Sie unter Zeitraum den Zeitraum für den Alarm aus.
-
Wählen Sie unter Alarmzustand aus, wie die ausgewählte Metrik mit dem definierten Schwellenwert verglichen werden soll.
-
Geben Sie unter Schwellenwert für den Vergleich von Metriken und Auswertungszeitraum für die Auslösung des Alarms den Schwellenwert für den Alarm ein und wie lange der Schwellenwert ausgewertet werden soll.
-
Führen Sie unter Skalierungsaktionen die folgenden Schritte aus:
-
Wählen Sie unter Aktion aus, ob Sie Aufgaben zu Ihrem Service hinzufügen oder davon entfernen möchten, oder eine bestimmte gewünschte Anzahl an Aufgaben festlegen möchten.
-
Wenn Sie Aufgaben hinzufügen oder entfernen möchten, geben Sie unter Wert die Anzahl der Aufgaben (oder den Prozentsatz der vorhandenen Aufgaben) ein, die hinzugefügt oder entfernt werden soll, wenn die Skalierungsaktion ausgelöst wird. Wenn Sie die gewünschte Anzahl festlegen möchten, geben Sie die Anzahl der Aufgaben ein. Wählen Sie unter Typ aus, ob der Wert eine Ganzzahl oder ein Prozentwert der vorhandenen gewünschten Anzahl ist.
-
Geben Sie für Untergrenze und Obergrenze die Untergrenze und Obergrenze der schrittweisen Skalierungsanpassung ein. Standardmäßig ist die untere Grenze für eine Hinzufügerichtlinie die Alarmschwelle und die obere Grenze ist positiv (+) unendlich. Standardmäßig ist die obere Grenze für eine Entfernerichtlinie die Alarmschwelle und die untere Grenze ist negativ (-) unendlich.
-
(Optional) Fügen Sie zusätzliche Skalierungsoptionen hinzu. Wählen Sie Neue Skalierungsaktion hinzufügen und wiederholen Sie dann die Schritte unter Skalierungsaktionen.
-
Geben Sie für Ruhephase die Zeitspanne in Sekunden ein, für die darauf gewartet wird, dass eine vorherige Skalierungsaktion wirksam wird. Bei einer Richtlinie zum Hinzufügen ist dies die Zeit nach einer Aufskalierungsaktion, in der die Skalierungsrichtlinie Abskalierungsaktionen blockiert und begrenzt, wie viele Aufgaben gleichzeitig aufskaliert werden können. Bei einer Entfernungsrichtlinie ist dies die Zeit nach einer Abskalierungsaktion, die verstreichen muss, bevor eine weitere Abskalierungsaktion gestartet werden kann.
-
-
-
-
(Optional) Um eine andere als die standardmäßige Strategie zur Platzierung von Aufgaben zu verwenden, erweitern Sie Task Placement (Platzierung von Aufgaben) und wählen Sie aus den folgenden Optionen aus.
Weitere Informationen finden Sie unter Wie Amazon ECS Aufgaben auf Container-Instances platziert.
-
AZ Balanced Spread — Verteilen Sie Aufgaben auf Availability Zones und auf Container-Instances in der Availability Zone.
-
AZ Balanced BinPack — Verteilen Sie Aufgaben auf Availability Zones und auf Container-Instances mit dem geringsten verfügbaren Speicher.
-
BinPack— Verteilen Sie Aufgaben auf der Grundlage der geringsten verfügbaren CPU- oder Speichermenge.
-
Eine Aufgabe pro Host — Platzieren Sie maximal eine Aufgabe aus dem Service auf jeder Container-Instance.
-
Benutzerdefiniert: Definieren Sie Ihre eigene Aufgabenplatzierungsstrategie.
Wenn Sie Custom (Benutzerdefiniert) wählen, definieren Sie den Algorithmus für das Platzieren von Aufgaben und die Regeln, die bei der Aufgabenplatzierung berücksichtigt werden.
-
Unter Strategy (Strategie), für Type (Typ) und Field (Feld), wählen Sie den Algorithmus und die Entität aus, die für den Algorithmus verwendet werden sollen.
Sie können maximal 5 Strategien angeben.
-
Unter Einschränkung, für Typ und Ausdruck, wählen Sie die Regel und das Attribut für die Einschränkung aus.
Um beispielsweise die Einschränkung festzulegen, Aufgaben auf T2-Instances zu platzieren, geben Sie für Expression (Ausdruck) attribute:ecs.instance-type =~ t2.* ein.
Sie können maximal 10 Einschränkungen angeben.
-
-
Wenn Ihre Aufgabe ein Daten-Volume verwendet, das mit der Konfiguration bei der Bereitstellung kompatibel ist, können Sie das Volume konfigurieren, indem Sie Volume erweitern.
Der Volume-Name und der Volume-Typ werden bei der Erstellung einer Revision der Aufgabendefinition konfiguriert und können nicht geändert werden, wenn Sie einen Service erstellen. Um den Namen und den Typ des Volumes zu aktualisieren, müssen Sie eine neue Revision der Aufgabendefinition erstellen und einen Service mithilfe der neuen Revision erstellen.
So konfigurieren Sie diesen Volume-Typ Vorgehensweise Amazon EBS
-
Wählen Sie für EBS-Volume-Typ den Typ des EBS-Volumes aus, den Sie Ihrer Aufgabe zuordnen möchten.
-
Geben Sie für Größe (GiB) einen gültigen Wert für die Volume-Größe in Gibibyte (GiB) ein. Sie können eine Volume-Größe von mindestens 1 GiB und eine maximale Volume-Größe von 16 384 GiB angeben. Dieser Wert ist erforderlich, sofern Sie keine Snapshot-ID angeben.
-
Geben Sie für IOPS die maximale Anzahl von input/output Vorgängen (IOPS) ein, die das Volume bereitstellen soll. Dieser Wert ist nur für die Volume-Typen
io1,io2undgp3konfigurierbar. -
Geben Sie für Durchsatz (MIB/s) den Durchsatz in Mebibyte pro Sekunde (MiBpsoder MIB/s) ein, den das Volume bereitstellen soll. Dieser Wert ist nur für den Volume-Typ
gp3konfigurierbar. -
Wählen Sie für Snapshot-ID einen vorhandenen Snapshot eines Amazon-EBS-Volumes aus oder geben Sie den ARN eines Snapshots ein, wenn Sie ein Volume aus einem Snapshot erstellen möchten. Sie können ein neues, leeres Volume auch erstellen, indem Sie keine Snapshot-ID auswählen oder eingeben.
-
Wenn Sie eine Snapshot-ID angeben, können Sie eine Volume-Initialisierungsrate (MIB/s) angeben. Geben Sie einen Wert zwischen 100 und 300 in MiB/s ein, der bestimmt, wie schnell Daten aus dem Snapshot geladen werden, der mit der Snapshot-ID für die Volume-Erstellung angegeben wurde.
-
Wählen Sie unter Dateisystemtyp den Typ des Dateisystems aus, das für das Speichern und Abrufen von Daten auf dem Volume verwendet werden soll. Sie können entweder den Betriebssystemstandard oder einen bestimmten Dateisystemtyp wählen. Die Standardeinstellung für Linux ist
XFS. Für Volumes, die aus einem Snapshot erstellt wurden, müssen Sie denselben Dateisystemtyp angeben, den das Volume bei der Erstellung des Snapshots verwendet hat. Wenn der Dateisystemtyp nicht übereinstimmt, kann die Aufgabe nicht gestartet werden. -
Wählen Sie für die Infrastrukturrolle eine IAM-Rolle mit den erforderlichen Berechtigungen, die es Amazon ECS ermöglicht, Amazon-EBS-Volumes für Aufgaben zu verwalten. Sie können die von
AmazonECSInfrastructureRolePolicyForVolumesverwaltete Richtlinie an die Rolle anhängen, oder Sie können die Richtlinie als Leitfaden verwenden, um eine eigene Richtlinie mit Berechtigungen zu erstellen und anzuhängen, die Ihren spezifischen Anforderungen entsprechen. Weitere Informationen zu den erforderlichen Berechtigungen finden Sie unter IAM-Rolle für die Amazon ECS-Infrastruktur. -
Wählen Sie für Verschlüsselung die Option Standard, wenn Sie die Einstellungen für die standardmäßige Amazon-EBS-Verschlüsselung verwenden möchten. Wenn in Ihrem Konto standardmäßig Verschlüsselung konfiguriert ist, wird das Volume mit dem Schlüssel AWS Key Management Service (AWS KMS) verschlüsselt, der in der Einstellung angegeben ist. Wenn Sie Standard wählen und die Amazon-EBS-Standardverschlüsselung nicht aktiviert ist, wird das Volume unverschlüsselt.
Wenn Sie Benutzerdefiniert wählen, können Sie eine Option AWS KMS key Ihrer Wahl für die Volumenverschlüsselung angeben.
Wenn Sie Keine wählen, wird das Volume unverschlüsselt, es sei denn, Sie haben die Verschlüsselung standardmäßig konfiguriert oder Sie erstellen ein Volume aus einem verschlüsselten Snapshot.
-
Wenn Sie Benutzerdefiniert für Verschlüsselung ausgewählt haben, müssen Sie angeben AWS KMS key , welche Sie verwenden möchten. Wählen Sie für KMS-Schlüssel einen AWS KMS key aus oder geben Sie einen Schlüssel-ARN ein. Wenn Sie Ihr Volume mithilfe eines symmetrischen, vom Kunden verwalteten Schlüssels verschlüsseln möchten, stellen Sie sicher, dass Sie in Ihrer AWS KMS key Richtlinie über die richtigen Berechtigungen verfügen. Weitere Informationen finden Sie unter Datenverschlüsselung für Amazon-EBS-Volumes.
-
(Optional) Unter Tags können Sie Ihrem Amazon-EBS-Volume Tags hinzufügen, indem Sie entweder Tags aus der Aufgabendefinition oder dem Service weitergeben oder Ihre eigenen Tags angeben.
Wenn Sie Tags aus der Aufgabendefinition weitergeben möchten, wählen Sie Aufgabendefinition für Tags weitergeben aus. Wenn Sie Tags aus dem Service weitergeben möchten, wählen Sie Service für Tags weitergeben von aus. Wenn Sie Nicht weitergeben auswählen oder wenn Sie keinen Wert auswählen, werden die Tags nicht weitergegeben.
Wenn Sie Ihre eigenen Tags angeben möchten, wählen Sie Tag hinzufügen und geben Sie dann den Schlüssel und den Wert für jedes Tag ein, das Sie hinzufügen möchten.
Weitere Informationen zum Erstellen von Amazon-EBS-Volumes finden Sie unter Markieren eines Amazon-EBS-Volumes.
-
-
Um ECS Exec zum Debuggen des Services zu verwenden, wählen Sie unter Konfiguration zur Fehlerbehebung die Option ECS Exec einschalten aus.
-
(Optional) Um Ihren Service und Ihre Aufgaben besser identifizieren zu können, erweitern Sie den Bereich Tags (Tags) und konfigurieren Sie dann Ihre Tags.
Damit Amazon ECS alle neu gestarteten Aufgaben automatisch mit Tags für den Clusternamen und den Aufgabendefinitions-Tags versieht, wählen Sie Amazon ECS Managed Tags einschalten und dann für Tags verbreiten von die Option Aufgabendefinitionen.
Damit Amazon ECS alle neu gestarteten Aufgaben automatisch mit Tags für den Clustername und die Service-Tags versieht, wählen Sie Amazon ECS Managed Tags einschalten und dann für Tags verbreiten von die Option Service.
Hinzufügen oder Entfernen eines Tag.
-
[Ein Tag hinzufügen] Wählen Sie Add tag (Tag hinzufügen) und führen Sie dann das Folgende aus:
-
Geben Sie bei Key (Schlüssel) den Schlüsselnamen ein.
-
Geben Sie bei Value (Wert) den Wert des Schlüssels ein.
-
-
[Tag entfernen] Wählen Sie neben dem Tag die Option Remove tag (Tag löschen) aus.
-
-
Wählen Sie Erstellen aus.
Nächste Schritte
Im Folgenden finden Sie zusätzliche Aktionen, nachdem Sie einen Service erstellt haben.
-
Konfigurieren Sie prädiktives Auto Scaling, das vergangene Ladedaten aus Datenverkehrsflüssen berücksichtigt. Weitere Informationen finden Sie unter Verwenden Sie historische Muster, um Amazon ECS-Services mit vorausschauender Skalierung zu skalieren.
-
Verfolgen Sie Ihre Bereitstellung und zeigen Sie Ihren Service-Verlauf für Services an, die der Amazon-ECS-Schutzschalter unterbricht. Weitere Informationen finden Sie unter Serviceverlauf mithilfe von Amazon ECS-Servicebereitstellungen anzeigen.