

Die vorliegende Übersetzung wurde maschinell erstellt. Im Falle eines Konflikts oder eines Widerspruchs zwischen dieser übersetzten Fassung und der englischen Fassung (einschließlich infolge von Verzögerungen bei der Übersetzung) ist die englische Fassung maßgeblich.

# Inferenzen von einem bereitgestellten Dienst (AWS CLI) anfordern
<a name="neo-requests-cli"></a>

Inferenzanfragen können mit dem gestellt werden, [https://docs.aws.amazon.com/cli/latest/reference/sagemaker-runtime/invoke-endpoint.html](https://docs.aws.amazon.com/cli/latest/reference/sagemaker-runtime/invoke-endpoint.html)sobald Sie einen Amazon SageMaker AI-Endpunkt `InService` haben. Sie können Inferenzanfragen mit dem AWS Command Line Interface (AWS CLI) stellen. Das folgende Beispiel zeigt, wie ein Bild zur Inferenz gesendet wird. 

```
aws sagemaker-runtime invoke-endpoint --endpoint-name 'insert name of your endpoint here' --body fileb://image.jpg --content-type=application/x-image output_file.txt
```

Eine `output_file.txt` mit Informationen zu Ihren Inferenzanfragen wird gestellt, wenn die Inferenz erfolgreich war. 

 Um eine Eingabe mit `application/json` als Inhaltstyp TensorFlow einzureichen. 

```
aws sagemaker-runtime invoke-endpoint --endpoint-name 'insert name of your endpoint here' --body fileb://input.json --content-type=application/json output_file.txt
```