권장 Inferentia 인스턴스 - AWS Deep Learning AMIs

권장 Inferentia 인스턴스

AWS Inferentia 인스턴스는 딥 러닝 모델 추론 워크로드에 높은 성능과 비용 효율성을 제공하도록 설계되었습니다. 특히 Inf2 인스턴스 유형은 TensorFlow 및 PyTorch와 같은 인기 있는 기계 학습 프레임워크와 통합된 AWS Inferentia 칩과 AWS Neuron SDK를 사용합니다.

고객은 Inf2 인스턴스를 사용하여 검색, 추천 엔진, 컴퓨터 비전, 음성 인식, 자연어 처리, 개인화, 사기 탐지와 같은 대규모 기계 학습 추론 애플리케이션을 클라우드에서 최저 비용으로 실행할 수 있습니다.

참고

모델의 크기를 고려하여 인스턴스를 선택해야 합니다. 모델이 인스턴스의 사용 가능한 RAM을 초과하는 경우 애플리케이션을 위해 충분한 메모리를 가진 다른 인스턴스 유형을 선택합니다.

AWS Inferentia DLAMI 사용 시작에 대한 자세한 내용은 DLAMI를 사용하는 AWS Inferentia 칩을 참조하세요.

다음

권장 Trainium 인스턴스