Le traduzioni sono generate tramite traduzione automatica. In caso di conflitto tra il contenuto di una traduzione e la versione originale in Inglese, quest'ultima prevarrà.
Carichi utili per lavori di assistenza in AWS Batch
Quando si inviano lavori di assistenza utilizzando SubmitServiceJob, si forniscono due parametri chiave che definiscono il lavoro:serviceJobType
, eserviceRequestPayload
.
serviceJobType
specifica quale AWS servizio eseguirà il lavoro. Per i lavori di SageMaker formazione, questo valore èSAGEMAKER_TRAINING
.serviceRequestPayload
è una stringa con codifica JSON che contiene la richiesta completa che normalmente verrebbe inviata direttamente al servizio di destinazione. Per i lavori di SageMaker formazione, questo payload contiene gli stessi parametri che utilizzeresti con l'API AI. SageMaker CreateTrainingJob
Per un elenco completo di tutti i parametri disponibili e delle relative descrizioni, consulta il riferimento all'CreateTrainingJobAPI SageMaker AI. Tutti i parametri supportati da CreateTrainingJob
possono essere inclusi nel payload del job di servizio.
Per esempi di altre configurazioni dei lavori di formazione APIs, consulta la CLI SDKs e SageMaker la AI Developer Guide.
Si consiglia di utilizzare PySDK per la creazione di lavori di assistenza perché PySDK dispone di classi e utilità di supporto. Per un esempio di utilizzo di PySDK, vedi esempi di intelligenza artificiale su. SageMaker
Esempio di service job payload
L'esempio seguente mostra un semplice payload di lavoro di servizio per un processo di SageMaker formazione che esegue uno script di formazione «hello world»:
Questo payload verrebbe passato come stringa JSON al serviceRequestPayload
parametro durante la chiamata. SubmitServiceJob
{ "TrainingJobName": "my-simple-training-job", "RoleArn": "arn:aws:iam::123456789012:role/SageMakerExecutionRole", "AlgorithmSpecification": { "TrainingInputMode": "File", "TrainingImage": "763104351884.dkr.ecr.us-west-2.amazonaws.com/pytorch-training:2.0.0-cpu-py310", "ContainerEntrypoint": [ "echo", "hello world" ] }, "ResourceConfig": { "InstanceType": "ml.c5.xlarge", "InstanceCount": 1, "VolumeSizeInGB": 1 }, "OutputDataConfig": { "S3OutputPath": "s3://your-output-bucket/output" }, "StoppingCondition": { "MaxRuntimeInSeconds": 30 } }