本文為英文版的機器翻譯版本,如內容有任何歧義或不一致之處,概以英文版為準。
設定語音辨識模型偏好設定
Amazon Lex V2 提供不同的語音辨識模型,您可以從中選擇,以最佳化機器人語音辨識功能的準確性和效能。您可以設定語音模型偏好設定,為您的使用案例選取最適合的模型。
語音辨識模型類型
Amazon Lex V2 支援下列語音辨識模型:
- 標準模型
-
標準語音辨識模型為一般使用案例提供可靠的語音辨識效能。此模型可在各種音訊條件下提供一致的準確性,並且適用於大多數對話式 AI 應用程式。
- 神經模型
-
神經語音辨識模型可增強自然語音模式、重音和背景雜訊的準確性和更好的處理。此模型使用進階神經網路架構來改善辨識效能,尤其是在具有挑戰性的音訊環境中。
- Deepgram
-
Deepgram 為建立 帳戶和 API 金鑰的使用者提供公speech-to-test(STT) API。如需其公有產品的相關資訊,請參閱 https://deepgram.com/
://。
設定語音模型偏好設定
您可以在建立或更新機器人地區設定時設定語音模型偏好設定。語音模型偏好設定會決定 Amazon Lex V2 使用哪個辨識模型來處理機器人的音訊輸入。
若要設定語音模型偏好設定:
-
在 Amazon Lex V2 主控台中,導覽至您的機器人,然後選取您要設定的地區設定。
-
在機器人地區設定中,找到語音辨識設定區段。
-
針對語音模型偏好設定,選擇下列其中一個選項:
-
標準 - 使用標準語音辨識模型,在一般使用案例中提供可靠的效能。
-
神經 - 使用神經語音辨識模型,以提高準確性並更好地處理自然語音模式。
-
Deepgram - 使用 Deepgram 的 Listen API 進行語音辨識。如需設定說明,請參閱 設定 Deepgram 語音模型偏好設定。
-
-
儲存您的變更,將語音模型偏好設定套用至您的機器人地區設定。
注意
如果您未指定語音模型偏好設定,Amazon Lex V2 預設會使用標準模型。
選擇正確的語音模型
為您的機器人選擇語音辨識模型時,請考慮下列因素:
-
音訊品質 - 如果您的機器人將處理具有背景雜訊的音訊、不同的音訊品質或具有挑戰性的聲音條件,則神經模型可能會提供更高的準確性。
-
說話者多樣性 - 如果您的機器人將與具有不同口音或語音模式的使用者互動,則神經模型增強的自然語言處理功能可能會改善辨識效能。
-
效能需求 - 標準模型提供一致的效能,並可能足以用於具有控制音訊環境和清晰語音輸入的應用程式。
您可以使用特定使用案例來測試這兩個模型,以判斷哪個模型可為您的應用程式提供最佳的準確度和效能平衡。