View a markdown version of this page

Unterstützte Features - Amazon SageMaker KI

Die vorliegende Übersetzung wurde maschinell erstellt. Im Falle eines Konflikts oder eines Widerspruchs zwischen dieser übersetzten Fassung und der englischen Fassung (einschließlich infolge von Verzögerungen bei der Übersetzung) ist die englische Fassung maßgeblich.

Unterstützte Features

Amazon SageMaker AI bietet die folgenden vier Optionen für die Bereitstellung von Inferenzmodellen.

  • Inferenz in Echtzeit für Inferenz-Workloads mit interaktiven Echtzeitanforderungen mit geringer Latenz.

  • Batch-Transformation für Offline-Inferenz mit großen Datensätzen.

  • Asynchrone Inferenz für near-real-time Inferenz mit großen Eingaben, die längere Vorverarbeitungszeiten erfordern.

  • Serverlose Inferenz für Inferenz-Workloads mit Leerlaufzeiten zwischen Datenverkehrsspitzen.

In der folgenden Tabelle sind die wichtigsten Plattformfunktionen zusammengefasst, die von den einzelnen Inferenzoptionen unterstützt werden. Sie zeigt keine Funktionen, die durch Frameworks, benutzerdefinierte Docker-Container oder durch Verkettung verschiedener AWS Dienste bereitgestellt werden können.

Feature Echtzeit-Inferenz Batch-Transformation Asynchrone Inferenz Serverlose Inferenz Docker-Container
Unterstützung für Autoscaling
Unterstützung für GPU 1 1 1 1P, vorgefertigt, BYOC
Einzelnes Modell
Multimodell-Endpunkt k-NN, Linear Learner XGBoost, RCF, Apache, Scikit-Learn 2 TensorFlow MXNet PyTorch
Endpunkt mit mehreren Containern 1P, vorkonfiguriert, Extend vorkonfiguriert, BYOC
Pipeline für serielle Inferenzen 1P, vorkonfiguriert, Extend vorkonfiguriert, BYOC
Empfehlung für Inferenzen 1P, vorkonfiguriert, Extend vorkonfiguriert, BYOC
Support für privaten Link
Unterstützung für Datenmonitore capture/Model
DLCs unterstützt 1P, vorkonfiguriert, Extend vorkonfiguriert, BYOC 1P, vorkonfiguriert, Extend vorkonfiguriert, BYOC 1P, vorkonfiguriert, Extend vorkonfiguriert, BYOC 1P, vorkonfiguriert, Extend vorkonfiguriert, BYOC
Unterstützte Protokolle HTTP/S HTTP/S HTTP/S HTTP/S
Nutzlastgröße < 6 MB ≤ 100 MB ≤ 1 GB ≤ 4 MB
HTTP-Blockcodierung Framework-abhängig, 1P wird nicht unterstützt Framework-abhängig, 1P wird nicht unterstützt Framework-abhängig, 1P wird nicht unterstützt
Anforderungstimeout < 60 Sekunden Tage < 1 Stunde < 60 Sekunden
Leitplanken für den Einsatz: Einsätze blue/green
Bereitstellungs-Guardrails: fortlaufende Bereitstellungen
Schattentests
Skalierung auf Null
Unterstützung von Marketplace-Modellpaketen
Unterstützung für virtuellen privaten Cloud
Unterstützung mehrerer Produktionsvarianten
Netzwerkisolierung
Unterstützung für die parallele Bedienung von Modellen 3 3 3
Volume-Verschlüsselung
Kunde AWS KMS
d Instance Unterstützung
inf1-Unterstützung

Mit SageMaker KI können Sie ein einzelnes Modell oder mehrere Modelle hinter einem einzigen Inferenzendpunkt für Inferenzen in Echtzeit einsetzen. In der folgenden Tabelle sind die Kern-Features zusammengefasst, die von den verschiedenen Hosting-Optionen unterstützt werden, die mit Echtzeit-Inferenz ausgestattet sind.

Feature Endgeräte mit einem einzigen Modell Endpunkte mit mehreren Modellen Pipeline für serielle Inferenzen Endpunkte mit mehreren Containern
Unterstützung für Autoscaling
Unterstützung für GPU 1
Einzelnes Modell
Endpunkte mit mehreren Modellen
Endpunkte mit mehreren Containern
Pipeline für serielle Inferenzen
Empfehlung für Inferenzen
Support für privaten Link
Unterstützung für Datenmonitore capture/Model
DLCs unterstützt 1P, vorkonfiguriert, Extend vorkonfiguriert, BYOC k-NN XGBoost, Linear Learner, RCF, Apache TensorFlow MXNet, PyTorch Scikit-Learn 2 1P, vorkonfiguriert, Extend vorkonfiguriert, BYOC 1P, vorkonfiguriert, Extend vorkonfiguriert, BYOC
Unterstützte Protokolle HTTP/S HTTP/S HTTP/S HTTP/S
Nutzlastgröße < 6 MB < 6 MB < 6 MB < 6 MB
Anforderungstimeout < 60 Sekunden < 60 Sekunden < 60 Sekunden < 60 Sekunden
blue/green Leitplanken für den Einsatz: Bereitstellungen
Bereitstellungs-Guardrails: fortlaufende Bereitstellungen
Schattentests
Unterstützung von Marketplace-Modellpaketen
Unterstützung für virtuellen privaten Cloud
Unterstützung mehrerer Produktionsvarianten
Netzwerkisolierung
Unterstützung für die parallele Bedienung von Modellen 3 3
Volume-Verschlüsselung
Kunde AWS KMS
d Instance Unterstützung
inf1-Unterstützung

1 Die Verfügbarkeit der Amazon EC2 EC2-Instance-Typen hängt von der AWS Region ab. Informationen zur Verfügbarkeit spezifischer Instances finden Sie unter Amazon SageMaker AI-Preise. AWS

2 Um ein anderes Framework oder einen anderen Algorithmus zu verwenden, verwenden Sie das SageMaker AI Inference Toolkit, um einen Container zu erstellen, der Endpunkte mit mehreren Modellen unterstützt.

3 Mit SageMaker KI können Sie große Modelle (bis zu 500 GB) für Inferenz einsetzen. Sie können die Container-Integritätsprüfung und die Download-Timeout-Kontingente von bis zu 60 Minuten konfigurieren. Dadurch haben Sie mehr Zeit zum Herunterladen und Laden Ihres Modells und der zugehörigen Ressourcen. Weitere Informationen finden Sie unter SageMaker-AI-Endpunktparameter zur Inferenz großer Modelle. Sie können SageMaker KI-kompatible Inferenzcontainer für große Modelle verwenden. Sie können auch Bibliotheken für die Modellparallelisierung von Drittanbietern verwenden, z. B. Triton mit und. FasterTransformer DeepSpeed Sie müssen sicherstellen, dass sie mit KI kompatibel sind. SageMaker