Le traduzioni sono generate tramite traduzione automatica. In caso di conflitto tra il contenuto di una traduzione e la versione originale in Inglese, quest'ultima prevarrà.
Richiedi inferenze da un servizio distribuito (Amazon SageMaker SDK)
Utilizza i seguenti esempi di codice per richiedere inferenze dal servizio distribuito in base al framework utilizzato per addestrare il modello. Gli esempi di codice per i diversi framework sono simili. La differenza principale è che TensorFlow richiede application/json come tipo di contenuto.
PyTorch e MXNet
Se utilizzi la versione PyTorch 1.4 o successiva o la versione MXNet 1.7.0 o successiva e disponi di un endpoint Amazon SageMaker AIInService, puoi effettuare richieste di inferenza utilizzando il predictor pacchetto dell'SDK AI SageMaker per Python.
Nota
L'API varia in base alla versione SageMaker AI SDK per Python:
-
Per la versione 1.x, utilizza l'API
RealTimePredictore Predict.
Il seguente esempio di codice mostra come utilizzarli APIs per inviare un'immagine per l'inferenza:
TensorFlow
Il seguente esempio di codice mostra come utilizzare l'API SageMaker Python SDK per inviare un'immagine per l'inferenza:
from sagemaker.predictor import Predictor from PIL import Image import numpy as np import json endpoint ='insert the name of your endpoint here'# Read image into memory image = Image.open(input_file) batch_size = 1 image = np.asarray(image.resize((224, 224))) image = image / 128 - 1 image = np.concatenate([image[np.newaxis, :, :]] * batch_size) body = json.dumps({"instances": image.tolist()}) predictor = Predictor(endpoint) inference_response = predictor.predict(data=body) print(inference_response)