모델 미세 조정을 위한 데이터 준비 - Amazon Bedrock

기계 번역으로 제공되는 번역입니다. 제공된 번역과 원본 영어의 내용이 상충하는 경우에는 영어 버전이 우선합니다.

모델 미세 조정을 위한 데이터 준비

사용자 지정 모델에 대한 훈련 및 검증 데이터세트를 준비하려면 각 라인이 하나의 레코드에 해당하는 JSON 객체인 .jsonl 파일을 만듭니다. 모델 사용자 지정 작업을 시작하기 전에 최소한 훈련 데이터세트를 준비해야 합니다. 생성하는 파일은 선택한 맞춤화 방법과 모델에 맞는 형식을 준수해야 합니다. 레코드는 모델에 따라 크기 요구 사항을 준수해야 합니다.

스키마 요구 사항에 대한 자세한 내용은 훈련 및 검증 데이터세트의 모델 요구 사항 섹션을 참조하세요. 다양한 모델을 사용자 지정하는 데 사용되는 훈련 및 검증 데이터세트에 적용되는 기본 할당량을 확인하려면 AWS 일반 참조의 Amazon Bedrock 엔드포인트 및 할당량에서 학습 및 검증 레코드의 합계를 참조하세요.

검증 데이터세트 지원 여부와 훈련 및 검증 데이터세트의 형식은 다음 요인에 따라 달라집니다.

  • 미세 조정 사용자 지정 작업의 유형입니다.

  • 데이터의 입력 및 출력 양식.

Amazon Nova 모델 미세 조정에 대한 자세한 내용은 Amazon Nova 모델 미세 조정을 참조하세요.

다음 섹션에서는 입력 및 출력 양식별로 구성된 각 모델에서 지원하는 다양한 미세 조정 기능에 대해 설명합니다. Amazon Nova 모델 미세 조정에 대한 자세한 내용은 Amazon Nova 모델 미세 조정을 참조하세요.

Text-to-Text 모델

Text-to-Text 모델은 대화형 애플리케이션과 비대화형 애플리케이션을 포함한 다양한 텍스트 기반 태스크에 맞게 미세 조정할 수 있습니다. Text-to-Text 모델 미세 조정을 위한 데이터 준비에 대한 자세한 내용은 text-to-text 모델 미세 조정을 위한 데이터 준비 섹션을 참조하세요.

다음 비대화 모델은 요약, 번역 및 질문 답변과 같은 태스크에 최적화되어 있습니다.

  • Amazon Titan Text G1 - Express

  • Amazon Titan Text G1 - Lite

  • Amazon Titan Text Premier

  • Cohere Command

  • Cohere Command Light

  • Meta Llama 3.1 8B Instruct

  • Meta Llama 3.1 70B Instruct

다음 대화형 모델은 단일 회전 및 다중 회전 상호 작용을 위해 설계되었습니다. 모델이 Converse API를 사용하는 경우 미세 조정 데이터세트는 Converse API 메시지 형식을 따르고 시스템, 사용자 및 어시스턴트 메시지를 포함해야 합니다. 예시는 text-to-text 모델 미세 조정을 위한 데이터 준비 섹션을 참조하세요. Converse API 작업에 대한 자세한 설명은 Converse API 작업과 대화 수행 섹션을 참조하세요.

  • Anthropic Claude 3 Haiku

  • Meta Llama 3.2 1B Instruct (대화형 API 형식)

  • Meta Llama 3.2 3B Instruct (대화형 API 형식)

  • Meta Llama 3.2 11B Instruct Vision(Converse API 형식)

  • Meta Llama 3.2 90B Instruct Vision(Converse API 형식)

  • Meta Llama 3.3 70B Vision Instruct(Converse API 형식)

Text-Image-to-Text 및 Text-to-Image 모델

다음 모델은 이미지 생성 및 텍스트 이미지 처리를 위한 미세 조정을 지원합니다. 이러한 모델은 텍스트 입력을 기반으로 이미지를 처리 또는 생성하거나 텍스트 입력과 이미지 입력을 모두 기반으로 텍스트를 생성합니다. Text-Image-to-Text 및 Text-to-Image 모델 미세 조정을 위한 데이터 준비에 대한 자세한 내용은 이미지 및 텍스트 처리 모델을 미세 조정하기 위한 데이터 준비 섹션을 참조하세요.

  • Amazon Titan Image Generator G1 V1

  • Meta Llama 3.2 11B Instruct Vision

  • Meta Llama 3.2 90B Instruct Vision

  • Meta Llama 3.3 70B Vision 지침

Image-to-Embeddings

다음 모델은 분류 및 검색과 같은 태스크에 대한 미세 조정을 지원합니다. 이러한 모델은 이미지 입력에서 수치 표현(임베딩)을 생성합니다. Image-to-Embeddings 모델의 미세 조정을 위한 데이터 준비 방법에 대한 정보는 이미지 생성 및 임베딩 모델을 미세 조정하기 위한 데이터 준비 섹션을 참조하세요.

  • Amazon Titan Multimodal Embeddings G1

  • Amazon Titan Image Generator G1 V1

다음 섹션에서는 모델의 훈련 및 검증 데이터세트에 대한 요구 사항을 나열합니다. Amazon Nova 모델의 데이터세트 제약 조건에 대한 자세한 내용은 Amazon Nova 모델 미세 조정을 참조하세요.

설명 최대(미세 조정)
배치 크기가 1인 경우 입력 및 출력 토큰의 합계 4,096
배치 크기가 2, 3 또는 4인 경우 입력 및 출력 토큰의 합계 해당 사항 없음
데이터 세트 내 샘플당 문자 할당량 토큰 할당량 x 6(추정)
훈련 데이터 세트 파일 크기 1GB
검증 데이터 세트 파일 크기 100MB
설명 최대(미세 조정)
배치 크기가 1인 경우 입력 및 출력 토큰의 합계 4,096
배치 크기가 2, 3 또는 4인 경우 입력 및 출력 토큰의 합계 2,048
데이터 세트 내 샘플당 문자 할당량 토큰 할당량 x 6(추정)
훈련 데이터 세트 파일 크기 1GB
검증 데이터 세트 파일 크기 100MB
설명 최대(미세 조정)
배치 크기가 1 또는 2인 경우 입력 및 출력 토큰의 합계 4,096
배치 크기가 3, 4, 5, 또는 6인 경우 입력 및 출력 토큰의 합계 2,048
데이터 세트 내 샘플당 문자 할당량 토큰 할당량 x 6(추정)
훈련 데이터 세트 파일 크기 1GB
검증 데이터 세트 파일 크기 100MB
설명 최소(미세 조정) 최대(미세 조정)
훈련 샘플의 텍스트 프롬프트 길이(글자 수 기준) 3 1,024
훈련 데이터세트의 레코드 5 10,000
입력 이미지 크기 0 50MB
입력 이미지 높이(픽셀) 512 4,096
입력 이미지 너비(픽셀) 512 4,096
입력 이미지 총 픽셀 0 12,582,912
입력 이미지 종횡비 1:4 4:1
설명 최소(미세 조정) 최대(미세 조정)
훈련 샘플의 텍스트 프롬프트 길이(글자 수 기준) 0 2,560
훈련 데이터세트의 레코드 1,000 500,000
입력 이미지 크기 0 5MB
입력 이미지 높이(픽셀) 128 4096
입력 이미지 너비(픽셀) 128 4096
입력 이미지 총 픽셀 0 12,528,912
입력 이미지 종횡비 1:4 4:1
설명 최소(미세 조정) 최대(미세 조정)
입력 토큰 0 16,000
출력 토큰 0 16,000
데이터 세트 내 샘플당 문자 할당량 0 토큰 할당량 x 6(추정)
입력 및 출력 토큰의 합계 0 16,000
훈련 및 검증 레코드의 합계 100 10,000(Service Quotas를 사용하여 조정 가능)

Meta Llama-3.2 11B Vision Instruct 및 Meta Llama-3.2 90B Vision Instruct에 지원되는 이미지 형식은 gif, jpeg, pngwebp입니다. 이러한 모델을 미세 조정하는 동안 image-to-token 변환을 추정하려면 이 공식을 근사치(Tokens = min(2, max(Height // 560, 1)) * min(2, max(Width // 560, 1)) * 1601)로 사용할 수 있습니다. 이미지는 크기에 따라 약 1,601개에서 6,404개의 토큰으로 변환됩니다.

설명 최소(미세 조정) 최대(미세 조정)
입력 및 출력 토큰의 합계 0 16,000(10,000: Meta Llama 3.2 90B)
훈련 및 검증 레코드의 합계 100 10,000(Service Quotas를 사용하여 조정 가능)
입력 이미지 크기 - Meta Llama 11B and 90B instruct 모델) 0 10MB
Meta Llama 11B and 90B instruct 모델의 입력 이미지 높이(픽셀) 10 8192
Meta Llama 11B and 90B90B instruct 모델의 입력 이미지 너비(픽셀) 10 8192
설명 최소(미세 조정) 최대(미세 조정)
입력 및 출력 토큰의 합계 0 16000
훈련 및 검증 레코드의 합계 100 10,000(Service Quotas를 사용하여 조정 가능)
설명 최대(미세 조정)
입력 토큰 4,096
출력 토큰 2,048
데이터 세트 내 샘플당 문자 할당량 토큰 할당량 x 6(추정)
훈련 데이터세트의 레코드 10,000
검증 데이터세트의 레코드 1,000
설명 최대(미세 조정)
최소 레코드 수 32
최대 훈련 레코드 10,000
최대 검증 레코드 1,000
최대 총 레코드 수 10,000(Service Quotas를 사용하여 조정 가능)
최대 토큰 32,000
최대 훈련 데이터세트 크기 10GB
최대 검증 데이터세트 크기 1GB
참고

Amazon Nova 모델 미세 조정에 대한 자세한 내용은 Amazon Nova 모델 미세 조정을 참조하세요.

text-to-text 모델을 미세 조정하는 경우 각 JSON 객체는 제공된 텍스트 프롬프트를 기반으로 모델을 원하는 텍스트 출력을 생성하는 방향으로 안내하도록 설계된 구조화된 필드가 포함된 샘플입니다. 데이터 형식은 사용 사례에 따라 다르며 비대화형 사용 사례와 대화형 사용 사례로 광범위하게 분류됩니다.

Non-conversational tasks

비대화 태스크에는 지정된 입력에 대해 단일 출력을 생성하는 작업이 포함됩니다. 각 데이터세트 샘플에는 입력 텍스트가 포함된 prompt 필드와 예상 출력이 있는 completion 필드가 포함됩니다. 이 형식은 질문 응답, 요약, 번역, 텍스트 완성 및 정보 추출과 같은 다양한 태스크를 지원합니다.

형식의 예시

{"prompt": "What is the capital of France?", "completion": "The capital of France is Paris."} {"prompt": "Summarize the article about climate change.", "completion": "Climate change refers to the long-term alteration of temperature and typical weather patterns in a place."}

토큰당 약 6자를 사용하여 데이터세트 크기를 계획하기 위한 토큰 수를 추정합니다.

Converse API format (Single turn and Multi turn)

Converse API를 사용하려면 Converse 또는 ConverseStream 작업을 직접적으로 호출하여 모델에 메시지를 보냅니다. Converse를 직접적으로 호출하려면 bedrock:InvokeModel 작업에 대한 권한이 필요합니다. ConverseStream을 직접적으로 호출하려면 bedrock:InvokeModelWithResponseStream 작업에 대한 권한이 필요합니다. 자세한 내용은 Converse API 사용 단원을 참조하십시오. Converse API 작업에 대한 자세한 설명은 Converse API 작업과 대화 수행 섹션을 참조하세요.

형식의 예시

{ "schemaVersion": "bedrock-conversation-2024", "system": [ { "text": "You are a digital assistant with a friendly personality" } ], "messages": [ { "role": "user", "content": [ { "text": "What is the capital of Mars?" } ] }, { "role": "assistant", "content": [ { "text": "Mars does not have a capital. Perhaps it will one day." } ] } ] }
Anthropic Claude 3 Haiku: Single-turn conversations

싱글턴 대화 태스크에는 이전 컨텍스트를 고려하지 않고 모델이 현재 사용자 입력만을 기반으로 응답을 생성하는 격리된 교환이 포함됩니다. 각 데이터세트 샘플은 userassistant의 대체 역할이 있는 메시지 배열을 사용합니다.

형식

{"system": "<system message>","messages":[{"role": "user", "content": "<user query>"},{"role": "assistant", "content": "<expected generated text>"}]}

예제

{"system": "You are an helpful assistant.","messages":[{"role": "user", "content": "what is AWS"},{"role": "assistant", "content": "it's Amazon Web Services."}]}
Anthropic Claude 3 Haiku: Multi-turn conversations

멀티턴 대화 태스크에는 이전 교환의 컨텍스트를 유지하면서 모델이 응답을 생성해야 하는 확장된 대화가 포함됩니다. 이 형식은 고객 지원 또는 복잡한 토론과 같은 대화형 태스크의 동적 특성을 캡처합니다.

형식

{"system": "<system message>","messages":[{"role": "user", "content": "<user query 1>"},{"role": "assistant", "content": "<expected generated text 1>"}, {"role": "user", "content": "<user query 2>"},{"role": "assistant", "content": "<expected generated text 2>"}]}

예제

{"system": "system message","messages":[{"role": "user", "content": "Hello there."},{"role": "assistant", "content": "Hi, how can I help you?"},{"role": "user", "content": "what are LLMs?"},{"role": "assistant", "content": "LLM means large language model."},]}
참고

Amazon Nova 모델 미세 조정에 대한 자세한 내용은 Amazon Nova 모델 미세 조정을 참조하세요.

image-text-to-text 모델을 미세 조정하는 경우 각 JSON 객체는 사용자의 입력과 어시스턴트의 응답을 나타내는 교대 JSON 객체로 구성된 messages 배열로 구조화된 대화를 포함하는 샘플입니다. 사용자 입력에는 텍스트와 이미지가 모두 포함될 수 있지만 어시스턴트 응답은 항상 텍스트입니다. 이 구조는 단일 회전 및 다중 회전 대화 흐름을 모두 지원하므로 모델이 다양한 태스크를 효과적으로 처리할 수 있습니다. Meta Llama-3.2 11B Vision Instruct 및 Meta Llama-3.2 90B Vision Instruct에 지원되는 이미지 형식은 gif, jpeg, pngwebp입니다.

Amazon Bedrock이 이미지 파일에 액세스하도록 허용하려면, 사용자가 설정했거나 콘솔에서 자동으로 설정된 Amazon Bedrock 모델 사용자 지정 서비스 역할에 대한 (S3의 훈련 및 검증 파일에 액세스하고 S3에 출력 파일을 쓸 수 있는 권한 섹션과 유사한) IAM 정책을 추가합니다. 훈련 데이터 세트에 제공하는 Amazon S3 경로는 정책에서 지정하는 폴더에 있어야 합니다.

싱글턴 대화

싱글턴 대화를 위한 각 JSON 객체는 사용자 메시지와 어시스턴트 메시지로 구성됩니다. 사용자 메시지에는 사용자로 설정된 역할 필드와 입력 모달리티를 설명하는 type 필드(텍스트 또는 이미지)가 있는 배열이 포함된 콘텐츠 필드가 포함됩니다. 텍스트 입력의 경우 content 필드에는 사용자의 질문 또는 프롬프트가 있는 text 필드가 포함됩니다. 이미지 입력의 경우 content 필드는 이미지 format(예: jpeg, png)와 이미지의 Amazon S3 위치를 가리키는 uri를 통한 자체 source를 지정합니다. uri는 일반적으로 s3://<bucket-name>/<path-to-file> 형식으로 Amazon S3 버킷에 저장된 이미지의 고유한 경로를 나타냅니다. 어시스턴트 메시지에는 어시스턴트로 설정된 role 필드와 텍스트로 설정된 content 필드가 있는 배열이 포함된 type 필드, 어시스턴트가 생성한 응답이 포함된 text 필드가 포함됩니다.

형식의 예제

{ "schemaVersion": "bedrock-conversation-2024", "system": [{ "text": "You are a smart assistant that answers questions respectfully" }], "messages": [{ "role": "user", "content": [{ "text": "What does the text in this image say?" }, { "image": { "format": "png", "source": { "s3Location": { "uri": "s3://your-bucket/your-path/your-image.png", "bucketOwner": "your-aws-account-id" } } } } ] }, { "role": "assistant", "content": [{ "text": "The text in the attached image says 'LOL'." }] } ] }

멀티턴 대화

멀티턴 대화를 위한 각 JSON 객체에는 대체 역할이 있는 메시지 시퀀스가 포함되어 있으며, 여기서 사용자 메시지와 어시스턴트 메시지는 일관성 있는 교환을 활성화하도록 일관되게 구성됩니다. 사용자 메시지에는 사용자로 설정된 role 필드와 입력 양식을 설명하는 content 필드가 포함됩니다. 텍스트 입력의 경우 content 필드에 사용자의 질문 또는 후속 조치가 포함된 text 필드가 포함된 반면, 이미지 입력의 경우 이미지 format과 이미지의 Amazon S3 위치를 가리키는 uri를 통한 source를 지정합니다. uri는 s3://<bucket-name>/<path-to-file> 형식의 고유 식별자 역할을 하며 모델이 지정된 Amazon S3 버킷에서 이미지에 액세스할 수 있도록 허용합니다. 어시스턴트 메시지에는 어시스턴트로 설정된 role 필드와 텍스트로 설정된 content 필드가 있는 배열이 포함된 type 필드, 어시스턴트가 생성한 응답이 포함된 text 필드가 포함됩니다. 대화는 여러 교환에 걸쳐 있을 수 있으므로 어시스턴트는 컨텍스트를 유지하고 전체적으로 일관된 응답을 제공할 수 있습니다.

형식의 예제

{ "schemaVersion": "bedrock-conversation-2024", "system": [{ "text": "You are a smart assistant that answers questions respectfully" }], "messages": [{ "role": "user", "content": [{ "text": "What does the text in this image say?" }, { "image": { "format": "png", "source": { "s3Location": { "uri": "s3://your-bucket/your-path/your-image.png", "bucketOwner": "your-aws-account-id" } } } } ] }, { "role": "assistant", "content": [{ "text": "The text in the attached image says 'LOL'." }] }, { "role": "user", "content": [{ "text": "What does the text in this image say?" } ] }, { "role": "assistant", "content": [{ "text": "The text in the attached image says 'LOL'." }] } ] }
참고

Amazon Nova 모델마다 미세 조정 요구 사항이 다릅니다. 이러한 모델을 미세 조정하려면 Amazon Nova 모델 미세 조정의 지침을 따르세요.

텍스트 투 이미지 또는 이미지 투 임베딩 모델의 경우, 훈련 데이터세트를 준비합니다. 검증 데이터세트는 지원되지 않습니다. 각 JSON 객체는 image-ref, 이미지용 Amazon S3 URI, 이미지용 프롬프트가 될 수 있는 caption이 포함된 샘플입니다.

이미지는 JPEG 또는 PNG 형식이어야 합니다.

{"image-ref": "s3://bucket/path/to/image001.png", "caption": "<prompt text>"} {"image-ref": "s3://bucket/path/to/image002.png", "caption": "<prompt text>"}{"image-ref": "s3://bucket/path/to/image003.png", "caption": "<prompt text>"}

예시는 다음과 같습니다.

{"image-ref": "s3://amzn-s3-demo-bucket/my-pets/cat.png", "caption": "an orange cat with white spots"}

Amazon Bedrock이 이미지 파일에 액세스하도록 허용하려면, 사용자가 설정했거나 콘솔에서 자동으로 설정된 Amazon Bedrock 모델 사용자 지정 서비스 역할에 대한 (S3의 훈련 및 검증 파일에 액세스하고 S3에 출력 파일을 쓸 수 있는 권한 섹션과 유사한) IAM 정책을 추가합니다. 훈련 데이터 세트에 제공하는 Amazon S3 경로는 정책에서 지정하는 폴더에 있어야 합니다.