

翻訳は機械翻訳により提供されています。提供された翻訳内容と英語版の間で齟齬、不一致または矛盾がある場合、英語版が優先します。

# UI でのモデルカスタマイズ用のアセットの作成
<a name="model-customize-open-weight-create-assets-ui"></a>

UI でモデルのカスタマイズに使用できるデータセットと評価者アセットを作成および管理できます。

## アセット
<a name="model-customize-open-weight-assets"></a>

左側のパネルと Amazon SageMaker Studio UI で**アセット**を選択し、**データセット**を選択します。

![\[モデルのカスタマイズへのアクセスを含むイメージ。\]](http://docs.aws.amazon.com/ja_jp/sagemaker/latest/dg/images/screenshot-open-model-16.png)


**Upload Dataset** を選択して、モデルカスタマイズジョブで使用するデータセットを追加します。**必須データ入力形式**を選択すると、使用するデータセット形式のリファレンスにアクセスできます。

![\[モデルのカスタマイズへのアクセスを含むイメージ。\]](http://docs.aws.amazon.com/ja_jp/sagemaker/latest/dg/images/screenshot-open-model-15.png)


## エバリュエーター
<a name="model-customize-open-weight-evaluators"></a>

強化学習のカスタマイズジョブに**報酬関数**と**報酬プロンプト**を追加することもできます。

![\[モデルのカスタマイズへのアクセスを含むイメージ。\]](http://docs.aws.amazon.com/ja_jp/sagemaker/latest/dg/images/screenshot-open-model-14.png)


UI は、報酬関数または報酬プロンプトに必要な形式に関するガイダンスも提供します。

![\[モデルのカスタマイズへのアクセスを含むイメージ。\]](http://docs.aws.amazon.com/ja_jp/sagemaker/latest/dg/images/screenshot-open-model-13.png)


## AWS SDK を使用したモデルカスタマイズのアセット
<a name="model-customize-open-weight-create-assets-sdk"></a>

SageMaker AI Python SDK を使用してアセットを作成することもできます。以下のサンプルコードスニペットを参照してください。

```
from sagemaker.ai_registry.air_constants import REWARD_FUNCTION, REWARD_PROMPT
from sagemaker.ai_registry.dataset import DataSet, CustomizationTechnique
from sagemaker.ai_registry.evaluator import Evaluator

# Creating a dataset example
dataset = DataSet.create(
            name="sdkv3-gen-ds2",
            source="s3://sample-test-bucket/datasets/training-data/jamjee-sft-ds1.jsonl", # or use local filepath as source.
            customization_technique=CustomizationTechnique.SFT
        )

# Refreshes status from hub
dataset.refresh()
pprint(dataset.__dict__)

# Creating an evaluator. Method : Lambda
evaluator = Evaluator.create(
                name = "sdk-new-rf11",
                source="arn:aws:lambda:us-west-2:<>:function:<function-name>8",
                type=REWARD_FUNCTION
        )

# Creating an evaluator. Method : Bring your own code
evaluator = Evaluator.create(
                name = "eval-lambda-test",
                source="/path_to_local/eval_lambda_1.py",
                type = REWARD_FUNCTION
        )

# Optional wait, by default we have wait = True during create call.
evaluator.wait()

evaluator.refresh()
pprint(evaluator)
```