Die vorliegende Übersetzung wurde maschinell erstellt. Im Falle eines Konflikts oder eines Widerspruchs zwischen dieser übersetzten Fassung und der englischen Fassung (einschließlich infolge von Verzögerungen bei der Übersetzung) ist die englische Fassung maßgeblich.
Auswahl der Bereitstellungsinfrastruktur für ein Image-Klassifizierungsmodell
Wir empfehlen, die beste Bereitstellungsoption für einen Image-Klassifizierungsendpunkt unter Berücksichtigung von drei Hauptaspekten auszuwählen:
-
Erforderliche Reaktionszeit am Endpunkt
-
Komplexität der Lösung und verfügbare Personalressourcen
-
Kostenbeschränkungen
Die Einschränkungen bei der Reaktionszeit und den Kosten der Endgeräte lassen sich leichter quantifizieren und lassen sich besser zuerst ermitteln. Die Einschränkungen der Lösungskomplexität hängen vom ausgewogenen Verhältnis zwischen Zeit und Ressourcen der Mitarbeiter ab. Die am wenigsten komplexen Lösungen beinhalten die Verwendung von Amazon Rekognition oder Amazon Rekognition Custom Labels. Bei großen Computer-Vision-Modellen kann es bis zu 1 Sekunde dauern, bis sie reagieren, wenn sie hinter einer Amazon API Gateway-Instance und einer AWS Lambda Funktion platziert werden. Amazon SageMaker AI Canvas kann auch einen Endpunkt bereitstellen, der innerhalb von 1 Sekunde oder weniger reagiert, und das mit geringem Entwicklungsaufwand.
Modelle zur Bildklassifizierung können mithilfe eines Docker-Images in AWS Lambda Funktionen platziert werden. Wenn eine Lambda-Funktion aufgerufen wird, kann es zu einem Kaltstart kommen, der die Endpunktreaktion aufgrund der Ladezeit des Modells verzögert. Sie können auch die bereitgestellte Parallelitätsoption verwenden, damit eine Lambda-Funktion in weniger als 1 Sekunde reagiert, für einen bestimmten Grad an Parallelität oder gemäß einer Auto-Scaling-Richtlinie.
Die Reaktionszeiten des Modells hängen von der Verarbeitungszeit des Modells und der Reaktionszeit des bereitgestellten Endgeräts ab. Im Folgenden sind die Reaktionszeiten für jede Bereitstellungsoption aufgeführt, geordnet nach Implementierungsaufwand:
-
Geringster Aufwand — Amazon Rekognition, Amazon Rekognition Custom Labels und SageMaker AI Canvas sind die Bereitstellungsoptionen mit dem geringsten Aufwand. Die Reaktionszeiten für diese Lösungen können zwischen weniger als einer Sekunde und Stunden liegen.
-
Mittlerer Aufwand — SageMaker KI ist eine Bereitstellungsoption mit mittlerem Aufwand. SageMaker KI-Echtzeit-Endgeräte können in weniger als einer Sekunde reagieren, serverlose SageMaker KI-Inferenzeinheiten können in mehreren Sekunden reagieren und SageMaker KI-Batch-Transformationen reagieren in der Regel innerhalb von Stunden.
-
Größter Aufwand — EKS Benutzerdefinierte Endpunkte und AWS Lambda Funktionen von Amazon ECS oder Amazon sind die Bereitstellungsoption mit dem höchsten Aufwand. Die Reaktionszeiten für diese kundenspezifischen Schulungsaufträge können zwischen weniger als einer Sekunde und Stunden liegen. Für Antwortzeiten von weniger als einer Sekunde können Sie Parallelität für Lambda-Funktionen bereitstellen.
Die Lösungen mit dem höchsten Aufwand haben mit größerer Wahrscheinlichkeit niedrigere Infrastrukturkosten. Vergleichen Sie die Einsparungen jedoch mit den zusätzlichen Kosten für Wartungszeit für Techniker.
Ein gängiges Bereitstellungsmuster besteht darin, einem Endpunktaufruf eine API Gateway- und Lambda-Funktion vorzugeben, wie in der folgenden Abbildung dargestellt. Dies ist in Situationen vorzuziehen, in denen die Inferenzantwort von Amazon Rekognition weiter verarbeitet werden muss, bevor sie über Amazon Gateway an den anrufenden Client zurückgesendet wird. API
In Situationen, in denen die Verarbeitung sehr umfangreich ist, kann jedoch ein anderer Arbeitsablauf erforderlich sein, um die durch die Lambda-Funktion verursachte Netzwerklatenz zu verringern. Bei sehr niedriger Latenz kann die Lambda-Funktion weggelassen werden, was allerdings bedeutet, dass Amazon Rekognition API beim Gateway-Aufruf erzwungen wirdAPI.
Verwenden Sie für Bildklassifizierungssysteme, die eine Latenz von einigen Sekunden aushalten können, einen serverlosen SageMaker KI-Inferenzendpunkt. Sowohl für serverlose SageMaker KI-Inferenz als auch für AWS Lambda Bereitstellungen gilt für jeden Aufruf eine Beschränkung der Ausführungszeit von 15 Minuten. Dies ist ein großer Sicherheitsspielraum für die gängigsten Modelle zur Bildklassifizierung.
Für die Offline-Bildklassifizierung oder für Anwendungen, bei denen eine schnelle Reaktionszeit nicht wichtig ist, können Sie Batch-Inferenz mit Amazon Rekognition verwenden. Weitere Informationen finden Sie unter Batch-Bildverarbeitung mit Amazon Rekognition Custom Labels