Neptune ML 제한 - Amazon Neptune

기계 번역으로 제공되는 번역입니다. 제공된 번역과 원본 영어의 내용이 상충하는 경우에는 영어 버전이 우선합니다.

Neptune ML 제한

  • 현재 지원되는 추론 유형은 노드 분류, 노드 회귀, 엣지 분류, 엣지 회귀 및 연결 예측입니다(Neptune ML 기능 참조).

  • Neptune ML이 지원할 수 있는 최대 그래프 크기는 데이터 준비, 모델 훈련추론 중에 필요한 메모리 및 스토리지의 양에 따라 달라집니다.

    • SageMaker AI 데이터 처리 인스턴스의 최대 메모리 크기는 768GB입니다. 따라서 768GB 이상의 메모리가 필요한 경우 데이터 처리 단계가 실패합니다.

    • SageMaker AI 훈련 인스턴스의 최대 메모리 크기는 732GB입니다. 따라서 732GB 이상의 메모리가 필요한 경우 훈련 단계가 실패합니다.

  • SageMaker AI 엔드포인트에 대한 추론 페이로드의 최대 크기는 6MiB입니다. 따라서 하위 그래프 페이로드가 해당 크기를 초과하면 유도 추론이 실패합니다.

  • Neptune ML은 현재 Neptune과 Neptune이 의존하는 다른 서비스(예: AWS Lambda, Amazon API Gateway, Amazon SageMaker AI)가 모두 지원되는 리전에서만 사용할 수 있습니다.

    다른 차이점과 함께 여기에 설명된 것처럼 중국(베이징)과 중국(닝샤)에서는 IAM 인증의 기본 사용과 관련된 차이점이 있습니다.

  • Neptune ML에서 출시한 연결 예측 추론 엔드포인트는 현재 훈련 중에 그래프에 나타난 노드와의 가능한 연결만 예측할 수 있습니다.

    UserMovie 버텍스와 Rated 엣지가 있는 그래프를 예로 들어 보겠습니다. 해당하는 Neptune ML 연결 예측 추천 모델을 사용하여 그래프에 새 사용자를 추가하고 모델이 사용자를 대신하여 영화를 예측하도록 할 수 있습니다. 하지만 모델은 모델 훈련 중에 존재한 영화만 추천할 수 있습니다. User 노드 임베딩은 로컬 하위 그래프와 GNN 모델을 사용하여 실시간으로 계산되므로 사용자가 영화를 평가하면서 시간이 지남에 따라 변경될 수 있으나, 최종 추천을 위해 미리 계산된 정적 영화 임베딩과 비교됩니다.

  • Neptune ML에서 지원하는 KGE 모델은 연결 예측 작업에만 사용할 수 있으며, 표현은 훈련 중 그래프에 나타나는 버텍스 및 엣지 유형에만 적용됩니다. 즉, 추론 쿼리에서 참조되는 모든 버텍스 및 엣지 유형은 훈련 중에 그래프에 존재해야 합니다. 모델을 재훈련하지 않으면 새로운 엣지 유형이나 버텍스를 예측할 수 없습니다.

SageMaker AI 리소스 제한

시간 경과에 따른 활동 및 리소스 사용량을 기반으로 할당량을 초과했다는 오류 메시지가 표시될 수 있습니다(ResourceLimitExceeded). 이때 SageMaker AI 리소스를 스케일 업해야 하는 경우 이 페이지의 SageMaker 리소스에 대한 서비스 할당량 증가 요청 절차의 단계에 따라 AWS Support에 할당량 증가를 요청하세요.

SageMaker AI 리소스 이름은 다음과 같이 Neptune ML 단계에 해당합니다.

  • SageMaker AI ProcessingJob은 Neptune 데이터 처리, 모델 훈련 및 모델 변환 작업에서 사용합니다.

  • SageMaker AI HyperParameterTuningJob은 Neptune 모델 훈련 작업에서 사용합니다.

  • SageMaker AI TrainingJob은 Neptune 모델 훈련 작업에서 사용합니다.

  • SageMaker AI Endpoint는 Neptune 추론 엔드포인트에서 사용합니다.