本文為英文版的機器翻譯版本,如內容有任何歧義或不一致之處,概以英文版為準。
建議的 Inferentia 執行個體
AWS Inferentia 執行個體旨在為深度學習模型推論工作負載提供高效能和成本效益。具體而言,Inf2 執行個體類型使用 AWS Inferentia 晶片和 AWS Neuron SDK
客戶可以使用 Inf2 執行個體,以最低的雲端成本執行大規模機器學習推論應用程式,例如搜尋、建議引擎、電腦視覺、語音辨識、自然語言處理、個人化和詐騙偵測。
注意
模型的大小應該是選擇執行個體的因素。如果您的模型超過執行個體的可用 RAM,請為您的應用程式選擇具有足夠記憶體的不同執行個體類型。
Amazon EC2 Inf2 執行個體
最多有 16 AWS 個 Inferentia 晶片和 100 Gbps 的網路輸送量。
如需 Inferentia DLAMIs AWS 入門的詳細資訊,請參閱 使用 DLAMI AWS 的 Inferentia Chip。