View a markdown version of this page

Membuat aset untuk kustomisasi model di UI - Amazon SageMaker AI

Terjemahan disediakan oleh mesin penerjemah. Jika konten terjemahan yang diberikan bertentangan dengan versi bahasa Inggris aslinya, utamakan versi bahasa Inggris.

Membuat aset untuk kustomisasi model di UI

Anda dapat membuat dan mengelola kumpulan data dan aset evaluator yang dapat Anda gunakan untuk penyesuaian model di UI.

Aset

Pilih Aset di panel sebelah kiri dan Amazon SageMaker Studio UI lalu pilih Datasets.

Gambar yang berisi akses ke kustomisasi model.

Pilih Unggah Dataset untuk menambahkan kumpulan data yang akan Anda gunakan dalam pekerjaan penyesuaian model Anda. Dengan memilih format input data yang diperlukan, Anda dapat mengakses referensi format kumpulan data yang akan digunakan.

Gambar yang berisi akses ke kustomisasi model.

Evaluator

Anda juga dapat menambahkan Fungsi Hadiah dan Prompt Hadiah untuk pekerjaan kustomisasi Pembelajaran Penguatan Anda.

Gambar yang berisi akses ke kustomisasi model.

UI juga memberikan panduan tentang format yang diperlukan untuk fungsi hadiah atau prompt hadiah.

Gambar yang berisi akses ke kustomisasi model.

Aset untuk kustomisasi model menggunakan AWS SDK

Anda juga dapat menggunakan SageMaker AI Python SDK untuk membuat aset. Lihat contoh potongan kode di bawah ini:

from sagemaker.ai_registry.air_constants import REWARD_FUNCTION, REWARD_PROMPT from sagemaker.ai_registry.dataset import DataSet, CustomizationTechnique from sagemaker.ai_registry.evaluator import Evaluator # Creating a dataset example dataset = DataSet.create( name="sdkv3-gen-ds2", source="s3://sample-test-bucket/datasets/training-data/jamjee-sft-ds1.jsonl", # or use local filepath as source. customization_technique=CustomizationTechnique.SFT ) # Refreshes status from hub dataset.refresh() pprint(dataset.__dict__) # Creating an evaluator. Method : Lambda evaluator = Evaluator.create( name = "sdk-new-rf11", source="arn:aws:lambda:us-west-2:<>:function:<function-name>8", type=REWARD_FUNCTION ) # Creating an evaluator. Method : Bring your own code evaluator = Evaluator.create( name = "eval-lambda-test", source="/path_to_local/eval_lambda_1.py", type = REWARD_FUNCTION ) # Optional wait, by default we have wait = True during create call. evaluator.wait() evaluator.refresh() pprint(evaluator)