Procesador TensorFlow Framework - Amazon SageMaker AI

Las traducciones son generadas a través de traducción automática. En caso de conflicto entre la traducción y la version original de inglés, prevalecerá la version en inglés.

Procesador TensorFlow Framework

TensorFlow es una biblioteca de machine learning e inteligencia artificial de código abierto. El TensorFlowProcessor de Amazon SageMaker Python SDK le permite ejecutar trabajos de procesamiento con scripts de TensorFlow. Cuando usa el TensorFlowProcessor, puede aprovechar un contenedor de Docker creado por Amazon con un entorno de TensorFlow gestionado para no tener que traer tu propio contenedor.

En el siguiente ejemplo de código se muestra cómo se puede utilizar TensorFlowProcessor para ejecutar el trabajo de procesamiento mediante una imagen de Docker proporcionada y mantenida por SageMaker AI. Tenga en cuenta que, al ejecutar el trabajo, puede especificar un directorio que contenga los scripts y las dependencias en el argumento source_dir, y puede tener un archivo requirements.txt ubicado dentro del directorio source_dir que especifique las dependencias de los scripts de procesamiento. Sagemaker Processing instala automáticamente las dependencias en requirements.txt en el contenedor.

from sagemaker.tensorflow import TensorFlowProcessor from sagemaker.processing import ProcessingInput, ProcessingOutput from sagemaker import get_execution_role #Initialize the TensorFlowProcessor tp = TensorFlowProcessor( framework_version='2.3', role=get_execution_role(), instance_type='ml.m5.xlarge', instance_count=1, base_job_name='frameworkprocessor-TF', py_version='py37' ) #Run the processing job tp.run( code='processing-script.py', source_dir='scripts', inputs=[ ProcessingInput( input_name='data', source=f's3://{BUCKET}/{S3_INPUT_PATH}', destination='/opt/ml/processing/input/data' ), ProcessingInput( input_name='model', source=f's3://{BUCKET}/{S3_PATH_TO_MODEL}', destination='/opt/ml/processing/input/model' ) ], outputs=[ ProcessingOutput( output_name='predictions', source='/opt/ml/processing/output', destination=f's3://{BUCKET}/{S3_OUTPUT_PATH}' ) ] )

Si tiene un archivo requirements.txt, debería ser una lista de bibliotecas que desee instalar en el contenedor. La ruta para source_dir puede ser una ruta de URI relativa, absoluta o de Amazon S3. Sin embargo, si utiliza un URI de Amazon S3, debe apuntar a un archivo tar.gz. Puede tener varios scripts en el directorio que especifique para source_dir. Para obtener más información sobre la clase TensorFlowProcessor, consulte TensorFlow Estimator en el Amazon SageMaker Python SDK.