기계 번역으로 제공되는 번역입니다. 제공된 번역과 원본 영어의 내용이 상충하는 경우에는 영어 버전이 우선합니다.
호스팅 서비스를 사용한 사용자 지정 추론 코드
이 섹션에서는 호스팅 서비스를 위한 자체 추론 코드를 실행하는 Docker 컨테이너와 Amazon SageMaker AI가 상호 작용하는 방법을 설명합니다. 이 정보를 사용하여 추론 코드를 작성하고 Docker 이미지를 생성합니다.
주제
SageMaker AI가 추론 이미지를 실행하는 방법
컨테이너를 실행 파일로 실행하도록 구성하려면 Dockerfile에서 ENTRYPOINT 지침을 사용합니다. 다음 사항에 유의하세요.
-
모델 추론의 경우 SageMaker AI는 다음과 같이 컨테이너를 실행합니다.
docker runimageserveSageMaker AI는 이미지 이름 뒤에
serve인수를 지정함으로써 컨테이너에 있는 기본CMD문을 재정의합니다.serve인수는 또한 Dockerfile에서CMD명령을 사용하여 입력한 인수 또한 재정의합니다. -
SageMaker AI는 모든 컨테이너가 루트 사용자와 함께 실행될 것을 기대합니다. 루트 사용자만 사용하도록 컨테이너를 생성하세요. SageMaker AI가 컨테이너를 실행할 때 루트 수준 액세스 권한이 없는 사용자는 권한 문제를 일으킬 수 있습니다.
-
exec지침의ENTRYPOINT양식을 사용하는 것이 좋습니다.ENTRYPOINT ["executable", "param1", "param2"]예제:
ENTRYPOINT ["python", "k_means_inference.py"]exec형식의ENTRYPOINT명령은,/bin/sh의 하위로서가 아니라, 실행 파일을 직접 시작합니다. 이를 통해 SageMaker API로부터SIGTERM및SIGKILL과 같은 신호를 수신할 수 있으며, 이는 필수 사항입니다.예를 들어,
CreateEndpointAPI를 사용하여 엔드포인트를 생성할 때 SageMaker AI는 사용자가 요청에 지정한 대로 엔드포인트 구성에 필요한 개수의 ML 컴퓨팅 인스턴스를 프로비저닝합니다. SageMaker AI는 해당 인스턴스에서 Docker 컨테이너를 실행합니다.(
UpdateEndpointWeightsAndCapacitiesAPI를 직접적으로 호출하여) 엔드포인트를 지원하는 인스턴스의 수를 줄이는 경우 SageMaker AI가 명령을 실행하여 종료 중인 인스턴스의 Docker 컨테이너를 중지합니다. 명령은SIGTERM신호를 전송한 다음 30초 후에SIGKILL신호를 전송합니다.(
UpdateEndpointAPI를 직접적으로 호출하여) 엔드포인트를 업데이트하는 경우 SageMaker AI는 다른 ML 컴퓨팅 인스턴스 세트를 시작하고 여기에 추론 코드가 포함된 Docker 컨테이너를 실행합니다. 그런 다음 명령을 실행하여 이전 Docker 컨테이너를 중지합니다. Docker 컨테이너를 중지하려면 명령은SIGTERM신호를 전송한 다음 30초 후에SIGKILL신호를 전송합니다. -
SageMaker AI는 사용자가 사용자의
CreateModel요청에 제공한 컨테이너 정의를 사용하여 다음과 같이 컨테이너에 대한 환경 변수 및 DNS 호스트 이름을 설정합니다.-
ContainerDefinition.Environment문자열 간 맵을 사용하여 환경 변수를 설정합니다. -
ContainerDefinition.ContainerHostname을 사용하여 DNS 호스트 이름을 설정합니다.
-
-
(
CreateEndpointConfig요청에 GPU 기반 ML 컴퓨팅 인스턴스를 지정하여) 모델 추론에 GPU 디바이스를 사용하려는 경우 컨테이너가nvidia-docker와 호환 가능한지 확인해야 합니다. 이미지가 포함된 NVIDIA 드라이버를 번들화하지 마세요.nvidia-docker에 대한 자세한 정보는 NVIDIA/nvidia-docker를 참조하세요. -
SageMaker AI 컨테이너의 진입점으로
tini이니셜라이저를 사용할 수 없습니다.train및serve인수로 인해 혼동되기 때문입니다.
SageMaker AI가 모델 아티팩트를 로드하는 방법
CreateModel API 요청에서 사용자는 ModelDataUrl 또는 S3DataSource 파라미터를 사용하여 모델 아티팩트가 저장되는 S3 위치를 식별할 수 있습니다. SageMaker AI는 추론 코드로 사용하기 위해 모델 아티팩트를 S3 위치에서 /opt/ml/model 디렉터리로 복사합니다. 컨테이너에 /opt/ml/model에 대한 읽기 전용 액세스 권한이 있습니다. 이 디렉터리에는 쓰지 마세요.
ModelDataUrl은 tar.gz 파일을 가리켜야 합니다. 그렇지 않으면 SageMaker AI가 해당 파일을 다운로드하지 못합니다.
SageMaker AI에서 모델을 훈련한 경우 모델 아티팩트는 Amazon S3에 압축된 단일 tar 파일로 저장됩니다. SageMaker AI 외부에서 모델을 훈련시킨 경우, 이 단일 압축 tar 파일을 생성하여 S3 위치에 저장해야 합니다. SageMaker AI는 컨테이너가 시작되기 전에 이 tar 파일을 /opt/ml/model 디렉터리로 압축 해제합니다.
대형 모델을 배포하는 경우 압축되지 않은 모델 배포하기을 수행하는 것을 권장합니다.
컨테이너의 추론 요청 응답 방법
추론을 얻으려면 클라이언트 애플리케이션이 SageMaker AI 엔드포인트로 POST 요청을 전송합니다. SageMaker AI가 요청을 컨테이너에 전달하고 추론 결과를 컨테이너에서 클라이언트로 반환합니다.
컨테이너가 받게 될 추론 요청에 대한 자세한 내용은 Amazon SageMaker AI API 참조의 다음과 같은 작업을 참조하세요.
추론 컨테이너 요구 사항
추론 요청에 응답하려면 컨테이너가 다음 요구 사항을 충족해야 합니다.
-
SageMaker AI는
InvokeEndpoint에서 지원하는 것을 제외한 모든POST헤더를 제거합니다. SageMaker AI는 헤더를 더 추가할 수 있습니다. 추론 컨테이너는 이러한 추가 헤더를 안전하게 무시할 수 있어야 합니다. -
추론 요청을 수신하려면 컨테이너에 포트 8080에서 수신하는 웹 서버가 있어야 하고,
/invocations및/ping엔드포인트에 대한POST요청을 수락해야 합니다. -
고객의 모델 컨테이너는 250ms 이내에 소켓 연결 요청을 수락해야 합니다.
-
고객의 모델 컨테이너는 60초 안에 요청에 응답해야 합니다. 모델 자체가
/invocations에 응답하는 데 최대 처리 시간이 60초까지 걸릴 수 있기 때문입니다. 모델에서 처리하는 데 50~60초가량 걸린다면 SDK 소켓 시간제한을 70초로 설정해야 합니다. -
양방향 스트리밍을 지원하는 고객의 모델 컨테이너는 다음과 같아야 합니다.
-
는 기본적으로 포트 8080에서 /invocations-bidirectional-stream에 대한 WebSockets 연결을 지원합니다.
-
에는 포트 8080에서 수신하는 웹 서버가 있으며 /ping 엔드포인트에 대한 POST 요청을 수락해야 합니다.
-
HTTP를 통한 컨테이너 상태 확인 외에도 컨테이너는 전송된 WebSocket Ping Frame에 대해 (RFC6455
)당 Pong Frame으로 응답해야 합니다.
-
예호출 함수
다음 예제에서는 컨테이너의 코드가 추론 요청을 처리하는 방법을 보여 줍니다. 이 예제는 InvokeEndpoint 작업을 사용하여 클라이언트 애플리케이션이 보내는 요청을 처리합니다.
예스트리밍 요청을 위한 호출 함수
다음 예제에서는 추론 컨테이너의 코드가 스트리밍 추론 요청을 처리하는 방법을 보여 줍니다. 이 예제는 InvokeEndpointWithResponseStream 작업을 사용하여 클라이언트 애플리케이션이 보내는 요청을 처리합니다.
컨테이너가 스트리밍 추론 요청을 처리할 때, 컨테이너는 모델의 추론을 모델이 생성함에 따라 점진적으로 일련의 부분으로 반환합니다. 클라이언트 애플리케이션은 응답이 제공되는 즉시 응답을 받기 시작합니다. 모델이 전체 응답을 생성할 때까지 기다릴 필요가 없습니다. 사용자는 스트리밍을 구현하여 챗봇, 가상 어시스턴트, 음악 생성기와 같은 빠른 대화형 환경을 지원할 수 있습니다.
예양방향 스트리밍을 위한 호출 함수 예제
다음 예제에서는 컨테이너의 코드가 스트리밍 추론 요청 및 응답을 처리하는 방법을 보여줍니다. 이 예제에서는 InvokeEndpointWithBidirectionalStream 작업을 사용하여 클라이언트 애플리케이션이 보내는 스트리밍 요청을 처리합니다.
양방향 스트리밍 기능이 있는 컨테이너는 파트가 클라이언트에서 점진적으로 생성되어 컨테이너로 스트리밍되는 스트리밍 추론 요청을 처리합니다. 모델이 생성할 때 모델의 추론을 일련의 부분으로 클라이언트에 다시 반환합니다. 클라이언트 애플리케이션은 응답이 제공되는 즉시 응답을 받기 시작합니다. 클라이언트에서 완전히 생성된에 대한 요청이나 모델이 전체 응답을 생성할 때까지 기다릴 필요가 없습니다. 양방향 스트리밍을 구현하여 챗봇, 대화형 음성 AI 어시스턴트, 실시간 번역과 같은 빠른 대화형 경험을 지원하여 보다 실시간 경험을 제공할 수 있습니다.
컨테이너의 상태 확인(핑) 요청 응답 방법
SageMaker AI는 다음과 같은 상황에서 새 추론 컨테이너를 시작합니다.
-
CreateEndpoint,UpdateEndpoint,UpdateEndpointWeightsAndCapacitiesAPI 직접 호출에 대한 응답 -
보안 패치
-
비정상 인스턴스 대체
컨테이너 시작 이후 SageMaker AI는 주기적으로 /ping 엔드포인트로 GET 요청을 전송하기 시작합니다.
컨테이너에 대한 가장 간단한 요구 사항은 HTTP 200 상태 코드 및 비어 있는 본문을 포함하여 응답하는 것입니다. 이는 SageMaker AI에 컨테이너가 /invocations 엔드포인트에서 추론 요청을 수락할 준비가 되었는지 표시합니다.
시작 후 8분 동안 지속적으로 200초로 응답하여 컨테이너가 상태 확인을 통과하지 못하면 새 인스턴스 시작이 실패합니다. 이는 CreateEndpoint에 장애가 발생하여 엔드포인트가 실패 상태가 되는 원인이 됩니다. UpdateEndpoint에서 요청한 업데이트가 완료되지 않고, 보안 패치가 적용되지 않으며, 비정상 인스턴스가 교체되지 않게 됩니다.
최소 기준이 컨테이너가 정적 200을 반환하는 반면 컨테이너 개발자는 이 기능을 사용하여 더욱 자세한 확인을 수행할 수 있습니다. /ping 시도의 요청 제한 시간은 2초입니다.
또한 양방향 스트리밍 요청을 처리할 수 있는 컨테이너는 Pong 프레임(WebSocket 프로토콜 RFC6455
양방향 스트리밍 기능을 지원하기 위한 컨테이너 계약
모델 컨테이너를 양방향 스트리밍 기능을 지원하는 SageMaker AI 엔드포인트로 호스팅하려면 모델 컨테이너가 아래 계약을 지원해야 합니다.
1: 양방향 Docker 레이블
모델 컨테이너에는 SageMaker AI 플랫폼에이 컨테이너에서 양방향 스트리밍 기능이 지원됨을 나타내는 Docker 레이블이 있어야 합니다.
com.amazonaws.sagemaker.capabilities.bidirectional-streaming=true
2. 호출에 대한 WebSocket 연결 지원
양방향 스트리밍을 지원하는 고객의 모델 컨테이너는 /invocations-bidirectional-stream 기본적으로 포트 8080에서 로의 WebSockets 연결을 지원해야 합니다.
InvokeEndpointWithBidirectionalStream API를 호출할 때 X-Amzn-SageMaker-Model-Invocation-Path 헤더를 전달하여이 경로를 재정의할 수 있습니다. 또한 사용자는 InvokeEndpointWithBidirectionalStream API를 호출할 때 X-Amzn-SageMaker-Model-Query-String 헤더를 전달하여이 경로에 추가할 쿼리 문자열을 지정할 수 있습니다.
3. 요청 스트림 처리
InvokeEndpointWithBidirectionalStream API 입력 페이로드는 이진 청크(“바이트”: <Blob>)의 래퍼인 일련의 PayloadParts로 스트리밍됩니다.
{ "PayloadPart": { "Bytes": <Blob>, "DataType": <String: UTF8 | BINARY>, "CompletionState": <String: PARTIAL | COMPLETE> "P": <String> } }
3.1. 데이터 프레임
SageMaker AI는 입력 PayloadParts를 모델 컨테이너에 WebSocket 데이터 프레임으로 전달합니다(RFC6455-Section-5.6
-
SageMaker AI는 바이너리 청크를 검사하지 않습니다.
-
입력 PayloadPart 수신 시
-
SageMaker AI는에서 정확히 하나의 WebSocket 데이터 프레임을 생성한
PayloadPart.Bytes다음 모델 컨테이너에 전달합니다. -
PayloadPart.DataType = UTF8인 경우 SageMaker AI는 텍스트 데이터 프레임을 생성합니다. -
PayloadPart.DataType에 또는이 없는 경우PayloadPart.DataType = BINARYSageMaker AI는 바이너리 데이터 프레임을 생성합니다.
-
-
를 사용하는 PayloadParts 시퀀스
PayloadPart.CompletionState = PARTIAL에서를 사용하는 PayloadParts로 종료되는 경우PayloadPart.CompletionState = COMPLETESageMaker AI는 이를 WebSocket 조각화된 메시지 RFC6455-Section-5.4: 조각화: -
를 사용하는 초기 PayloadPart
PayloadPart.CompletionState = PARTIAL는 FIN 비트가 지워진 WebSocket 데이터 프레임으로 변환됩니다. -
를 사용하는 후속 PayloadParts
PayloadPart.CompletionState = PARTIAL는 FIN 비트가 지워진 WebSocket 연속 프레임으로 변환됩니다. -
를 사용하는 최종 PayloadPart
PayloadPart.CompletionState = COMPLETE는 FIN 비트가 설정된 WebSocket 연속 프레임으로 변환됩니다.
-
-
SageMaker AI는 입력 PayloadPart에서 바이너리 청크를 인코딩하거나 디코딩하지 않으며, 바이트는 모델 컨테이너에 있는 그대로 전달됩니다.
-
SageMaker AI는 여러 입력 PayloadParts를 하나의 BinaryDataFrame으로 결합하지 않습니다.
-
SageMaker AI는 하나의 입력 PayloadPart를 여러 BinaryDataFrames로 청크하지 않습니다.
예: 조각화된 메시지 흐름
Client sends: PayloadPart 1: {Bytes: "Hello ", DataType: "UTF8", CompletionState: "PARTIAL"} PayloadPart 2: {Bytes: "World", DataType: "UTF8", CompletionState: "COMPLETE"} Container receives: Frame 1: Text Data Frame with "Hello " (FIN=0) Frame 2: Continuation Frame with "World" (FIN=1)
3.2. 프레임 제어
SageMaker AI는 데이터 프레임 외에도 제어 프레임을 모델 컨테이너로 전송합니다(RFC6455-Section-5.5
-
닫기 프레임: SageMaker AI는 어떤 이유로든 연결이 닫힐 경우 닫기 프레임(RFC6455-Section-5.5.1
)을 모델 컨테이너로 전송할 수 있습니다. -
Ping Frame: SageMaker AI는 60초마다 한 번씩 Ping Frame(RFC6455-Section-5.5.2
)을 전송합니다. 모델 컨테이너는 Pong Frame으로 응답해야 합니다. 5회 연속 Ping에 대해 Pong Frame(RFC6455-Section-5.5.3 )이 수신되지 않으면 SageMaker AI에 의해 연결이 종료됩니다. -
Pong Frame: SageMaker AI는 Pong Frames를 사용하여 모델 컨테이너의 Ping Frames에 응답합니다.
4. 응답 스트림 처리
출력은 일련의 PayloadParts, ModelStreamErrors 또는 InternalStreamFailures.
{ "PayloadPart": { "Bytes": <Blob>, "DataType": <String: UTF8 | BINARY>, "CompletionState": <String: PARTIAL | COMPLETE>, }, "ModelStreamError": { "ErrorCode": <String>, "Message": <String> }, "InternalStreamFailure": { "Message": <String> } }
4.1. 데이터 프레임
SageMaker AI는 모델 컨테이너에서 수신한 데이터 프레임을 출력 PayloadParts.
-
모델 컨테이너에서 WebSocket 텍스트 데이터 프레임을 수신하면 SageMaker AI는 텍스트 데이터 프레임에서 원시 바이트를 가져와서 PayloadPart 응답으로 래핑합니다
PayloadPart.DataType = UTF8. -
모델 컨테이너에서 WebSocket 바이너리 데이터 프레임을 수신하면 SageMaker AI는 데이터 프레임의 바이트를 PayloadPart 응답으로 직접 래핑하는 동시에를 설정합니다
PayloadPart.DataType = BINARY. -
RFC6455-Section-5.4: Fragmentation
에 정의된 조각화된 메시지의 경우: -
FIN 비트가 지워진 초기 데이터 프레임은가 있는 PayloadPart로 변환됩니다
PayloadPart.CompletionState = PARTIAL. -
FIN 비트가 지워진 후속 연속 프레임은를 사용하여 PayloadParts로 변환됩니다
PayloadPart.CompletionState = PARTIAL. -
FIN 비트가 설정된 최종 연속 프레임은를 사용하여 PayloadPart로 변환됩니다
PayloadPart.CompletionState = COMPLETE.
-
-
SageMaker AI는 모델 컨테이너에서 수신한 바이트를 인코딩하거나 디코딩하지 않으며, 바이트는 모델 컨테이너에 있는 그대로 전달됩니다.
-
SageMaker AI는 모델 컨테이너에서 수신한 여러 데이터 프레임을 하나의 응답 PayloadPart로 결합하지 않습니다.
-
SageMaker AI는 모델 컨테이너에서 수신한 데이터 프레임을 여러 응답 PayloadParts로 청크하지 않습니다.
예: 스트리밍 응답 흐름
Container sends: Frame 1: Text Data Frame with "Generating" (FIN=0) Frame 2: Continuation Frame with " response..." (FIN=1) Client receives: PayloadPart 1: {Bytes: "Generating", DataType: "UTF8", CompletionState: "PARTIAL"} PayloadPart 2: {Bytes: " response...", DataType: "UTF8", CompletionState: "COMPLETE"}
4.2. 프레임 제어
SageMaker AI는 모델 컨테이너에서 다음 제어 프레임에 응답합니다.
-
모델 컨테이너에서 닫기 프레임(RFC6455-Section-5.5.1
)을 수신하면 SageMaker AI는 상태 코드(RFC6455-Section-7.4 )와 실패 메시지를 ModelStreamError로 래핑하고 최종 사용자에게 다시 스트리밍합니다. -
모델 컨테이너에서 Ping 프레임(RFC6455-Section-5.5.2
)을 수신하면 SageMaker AI는 Pong Frame으로 응답합니다. -
Pong Frame(RFC6455-Section-5.5.3
): 5회 연속 Ping에 대해 Pong Frame이 수신되지 않으면 SageMaker AI에 의해 연결이 종료됩니다.