本文為英文版的機器翻譯版本,如內容有任何歧義或不一致之處,概以英文版為準。
Debugger 內建規則清單
您可以使用 Amazon SageMaker Debugger 提供的 Debugger 內建規則,來分析訓練模型時收集的指標和張量。以下列出偵錯工具規則,包括如何設定和部署每個內建規則的資訊和範例。
偵錯工具內建規則監控對成功的訓練任務至關重要的各種常見條件。您可以使用 Amazon SageMaker Python SDK
使用內建規則無需額外付費。如需帳單的更多相關資訊,請參閱 Amazon SageMaker 定價
注意
您可以連接到訓練任務的內建規則數量上限為 20。SageMaker Debugger 可完整管理內建規則,並同步分析您的訓練任務。
重要
若要使用新的偵錯工具功能,您必須升級 SageMaker Python SDK 和 SMDebug 用戶端程式庫。在您的 IPython 核心、Jupyter 筆記本或 JupyterLab 環境中,執行下列程式碼以安裝最新版本的程式庫,然後重新啟動核心。
import sys import IPython !{sys.executable} -m pip install -U sagemaker smdebug IPython.Application.instance().kernel.do_shutdown(True)
偵錯工具規則
下列規則是可使用 Rule.sagemaker 類別方法呼叫的 Debugger 內建規則。
適用於產生訓練報告的偵錯工具內建規則
| 有效性範圍 | 內建規則 |
|---|---|
| SageMaker AI XGboost 訓練任務的訓練報告 |
適用於偵錯模型訓練資料 (輸出張量) 的偵錯工具內建規則
| 有效性範圍 | 內建規則 |
|---|---|
| 深度學習架構 (TensorFlow、MXNet 和 PyTorch) | |
| 深度學習框架 (TensorFlow、MXNet 和 PyTorch) 及 XGBoost 演算法 | |
| 深度學習應用程式 | |
| XGBoost 演算法 |
若要將內建規則與預設參數值搭配使用,請使用下列組態格式:
from sagemaker.debugger import Rule, ProfilerRule, rule_configs rules = [ Rule.sagemaker(rule_configs.built_in_rule_name_1()), Rule.sagemaker(rule_configs.built_in_rule_name_2()), ... Rule.sagemaker(rule_configs.built_in_rule_name_n()) ]
若要使用內建規則來自訂參數值,請使用下列組態格式:
from sagemaker.debugger import Rule, ProfilerRule, rule_configs rules = [ Rule.sagemaker( base_config=rule_configs.built_in_rule_name(), rule_parameters={ "key": "value" } collections_to_save=[ CollectionConfig( name="tensor_collection_name", parameters={ "key": "value" } ) ] ) ]
若要尋找 rule_parameters 參數的可用金鑰,請參閱參數描述資料表。
為參數描述資料表下方的每個內建規則提供範例規則組態程式碼。
-
如需使用偵錯工具內建規則的完整指示和範例,請參閱偵錯工具內建規則範例程式碼。
-
如需關於將內建規則與低階 SageMaker API 作業搭配使用的完整指示,請參閱使用 SageMaker API 設定偵錯工具 。
CreateXgboostReport
CreateXgboostReport 規則會從 XGBoost 訓練任務收集輸出張量,並自動產生全方位的訓練報告。您可以在訓練任務執行期間或訓練任務完成後下載全方位的分析報告,並檢查訓練進度或訓練任務的最終結果。根據預設,CreateXgboostReport 規則會收集下列輸出張量:
-
hyperparameters– 在第一個步驟進行儲存 -
metrics– 每 5 個步驟儲存損失和準確性 -
feature_importance– 每 5 個步驟進行儲存 -
predictions– 每 5 個步驟進行儲存 -
labels– 每 5 個步驟進行儲存
CreateXgboostReport 規則的參數描述
| 參數名稱 | 描述 |
|---|---|
base_trial |
基礎試驗訓練任務名稱。此參數會由 Amazon SageMaker Debugger 自動設定為目前的訓練任務。 必要 有效值:字串 |
rules=[ Rule.sagemaker( rule_configs.create_xgboost_report() ) ]
DeadRelu
此規則偵測試驗中一定百分比的修正線性單元 (ReLU) 啟動函式,因為其啟動活動低於臨界值,而視為失效。如果某層的非作用中 ReLU 百分比大於非作用中 ReLU 的 threshold_layer 值,此規則會傳回 True。
DeadRelu 規則的參數描述
| 參數名稱 | 描述 |
|---|---|
base_trial |
基礎試驗訓練任務名稱。此參數會由 Amazon SageMaker Debugger 自動設定為目前的訓練任務。 必要 有效值:字串 |
tensor_regex |
Regex 模式清單,用於將這項比較限定於特定的純量值張量。此規則只檢查與清單中指定的 Regex 模式相符的張量。如果未傳遞模式,此規則依預設會比較試驗中收集的所有張量。只能比對純量值張量。 選用 有效值:字串清單或逗號分隔的字串 預設值: |
threshold_inactivity |
定義將 ReLU 視為失效的最低活動等級。ReLU 可能在試驗開始時很活躍,然後在訓練過程中慢慢失效。如果 ReLU 活躍程度低於 選用 有效值:浮點數 預設值: |
threshold_layer |
如果某層的非作用中 ReLU 百分比大於 如果某層的非作用中 ReLU 百分比小於 選用 有效值:浮點數 預設值: |
built_in_rules = [ Rule.sagemaker( base_config=rule_configs.dead_relu(), rule_parameters={ "tensor_regex": ".*relu_output|.*ReLU_output", "threshold_inactivity": "1.0", "threshold_layer": "50.0" }, collections_to_save=[ CollectionConfig( name="custom_relu_collection", parameters={ "include_regex: ".*relu_output|.*ReLU_output", "save_interval": "500" } ) ] ) ]
如需如何設定和部署內建規則的範例,請參閱如何設定 Debugger 內建規則。
注意
此規則不適用於 XGBoost 演算法。
ExplodingTensor
此規則偵測訓練期間發出的張量是否具有非限定值,即無限或 NaN (不是數字)。如果偵測到非限定值,此規則會傳回 True。
ExplodingTensor 規則的參數描述
| 參數名稱 | 描述 |
|---|---|
base_trial |
基礎試驗訓練任務名稱。此參數會由 Amazon SageMaker Debugger 自動設定為目前的訓練任務。 必要 有效值:字串 |
collection_names |
由規則檢查張量的集合名稱清單。 選用 有效值:字串 預設值: |
tensor_regex |
Regex 模式清單,用於將這項比較限定於特定的純量值張量。此規則只檢查與清單中指定的 Regex 模式相符的張量。如果未傳遞模式,此規則依預設會比較試驗中收集的所有張量。只能比對純量值張量。 選用 有效值:字串 預設值: |
only_nan |
選用 預設值: |
built_in_rules = [ Rule.sagemaker( base_config=rule_configs.exploding_tensor(), rule_parameters={ "tensor_regex": ".*gradient", "only_nan": "False" }, collections_to_save=[ CollectionConfig( name="gradients", parameters={ "save_interval": "500" } ) ] ) ]
如需如何設定和部署內建規則的範例,請參閱如何設定 Debugger 內建規則。
注意
此規則不適用於 XGBoost 演算法。
PoorWeightInitialization
此規則偵測您的模型參數初始化是否不佳。
良好的初始化會打破神經網路中的權重和梯度的對稱性,並保持各層之間相稱的啟動變異。否則,神經網路無法有效地學習。像 Xavier 這樣的初始器旨在保持啟動之間的變異固定,這對於訓練非常深的神經網路尤其重要。初始化過小可能導致梯度消失。初始化過大可能導致梯度爆炸。此規則檢查各層之間啟動輸入的變異、梯度分佈,以及初始步驟的損失收斂,以判斷神經網路的初始化是否不佳。
PoorWeightInitialization 規則的參數描述
| 參數名稱 | 描述 |
|---|---|
base_trial |
基礎試驗訓練任務名稱。此參數會由 Amazon SageMaker Debugger 自動設定為目前的訓練任務。 必要 有效值:字串 |
activation_inputs_regex |
Regex 模式清單,用於將這項比較限定於特定的純量值張量。此規則只檢查與清單中指定的 Regex 模式相符的張量。如果未傳遞模式,此規則依預設會比較試驗中收集的所有張量。只能比對純量值張量。 選用 有效值:字串 預設值: |
threshold |
如果每層的權重最小與最大變異之間的比率超過一個步驟的 選用 有效值:浮點數 預設值: |
distribution_range |
如果梯度分佈的第 5 個和第 95 個百分位數之間的最小差異小於 選用 有效值:浮點數 預設值: |
patience |
直到認為損失不再減少為止所需等待的步驟數。 選用 有效值:整數 預設值: |
steps |
此規則分析的步驟數。您通常只需要檢查最初幾次反覆運算。 選用 有效值:浮點數 預設值: |
built_in_rules = [ Rule.sagemaker( base_config=rule_configs.poor_weight_initialization(), rule_parameters={ "activation_inputs_regex": ".*relu_input|.*ReLU_input", "threshold": "10.0", "distribution_range": "0.001", "patience": "5", "steps": "10" }, collections_to_save=[ CollectionConfig( name="custom_relu_collection", parameters={ "include_regex": ".*relu_input|.*ReLU_input", "save_interval": "500" } ) ] ) ]
如需如何設定和部署內建規則的範例,請參閱如何設定 Debugger 內建規則。
注意
此規則不適用於 XGBoost 演算法。
SaturatedActivation
此規則偵測雙曲正切和 S 形啟動層是否變得飽和。當某層的輸入接近啟動函式的最大值或最小值時,啟動層即飽和。雙曲正切和 S 形啟動函式的最小值和最大值由各自的 min_threshold 和 max_thresholds 值定義。如果節點的活動低於 threshold_inactivity 百分比,則視為飽和。如果超過 threshold_layer 百分比的節點飽和,此規則會傳回 True。
SaturatedActivation 規則的參數描述
| 參數名稱 | 描述 |
|---|---|
base_trial |
基礎試驗訓練任務名稱。此參數會由 Amazon SageMaker Debugger 自動設定為目前的訓練任務。 必要 有效值:字串 |
collection_names |
由規則檢查張量的集合名稱清單。 選用 有效值:字串清單或逗號分隔的字串 預設值:無 |
tensor_regex |
Regex 模式清單,用於將這項比較限定於特定的純量值張量。此規則只檢查與清單中指定的 Regex 模式相符的張量。如果未傳遞模式,此規則依預設會比較試驗中收集的所有張量。只能比對純量值張量。 選用 有效值:字串 預設值: |
threshold_tanh_min |
最小與最大臨界值,定義雙曲正切啟動函式的輸入極端值,定義如下: 選用 有效值:浮點數 預設值: |
threshold_tanh_max |
最小與最大臨界值,定義雙曲正切啟動函式的輸入極端值,定義如下: 選用 有效值:浮點數 預設值: |
threshold_sigmoid_min |
最小與最大臨界值,定義 S 形啟動函式的輸入極端值,定義如下: 選用 有效值:浮點數 預設值: |
threshold_sigmoid_max |
最小與最大臨界值,定義 S 形啟動函式的輸入極端值,定義如下: 選用 有效值:浮點數 預設值: |
threshold_inactivity |
將啟動層視為飽和的無活動最低百分比。啟動可能在試驗開始時很活躍,然後在訓練過程中慢慢變得不活躍。 選用 有效值:浮點數 預設值: |
threshold_layer |
如果某層的飽和啟動數大於 如果某層的飽和啟動數小於 選用 有效值:浮點數 預設值: |
built_in_rules = [ Rule.sagemaker( base_config=rule_configs.saturated_activation(), rule_parameters={ "tensor_regex": ".*tanh_input|.*sigmoid_input", "threshold_tanh_min": "-9.4999", "threshold_tanh_max": "9.4999", "threshold_sigmoid_min": "-23", "threshold_sigmoid_max": "16.99999", "threshold_inactivity": "1.0", "threshold_layer": "50.0" }, collections_to_save=[ CollectionConfig( name="custom_activations_collection", parameters={ "include_regex": ".*tanh_input|.*sigmoid_input" "save_interval": "500" } ) ] ) ]
如需如何設定和部署內建規則的範例,請參閱如何設定 Debugger 內建規則。
注意
此規則不適用於 XGBoost 演算法。
VanishingGradient
此規則偵測試驗中的梯度是否變得非常小,或降到零量級。如果梯度的絕對值平均數低於指定的 threshold,此規則會傳回 True。
VanishingGradient 規則的參數描述
| 參數名稱 | 描述 |
|---|---|
base_trial |
基礎試驗訓練任務名稱。此參數會由 Amazon SageMaker Debugger 自動設定為目前的訓練任務。 必要 有效值:字串 |
threshold |
認定梯度消失於此值。 選用 有效值:浮點數 預設值: |
built_in_rules = [ Rule.sagemaker( base_config=rule_configs.vanishing_gradient(), rule_parameters={ "threshold": "0.0000001" }, collections_to_save=[ CollectionConfig( name="gradients", parameters={ "save_interval": "500" } ) ] ) ]
如需如何設定和部署內建規則的範例,請參閱如何設定 Debugger 內建規則。
注意
此規則不適用於 XGBoost 演算法。
WeightUpdateRatio
此規則持續追蹤訓練期間的權重更新比例,並偵測該比例是否太大或太小。如果權重更新比例大於 large_threshold value,或如果此比例小於 small_threshold,此規則會傳回 True。
當更新與漸層相符時,即為最佳訓練條件。過大的更新可能使權重偏離最佳值,太小的更新會導致收斂非常緩慢。此規則要求權重可供兩個訓練步驟使用,因此必須將 train.save_interval 設定為等於 num_steps。
WeightUpdateRatio 規則的參數描述
| 參數名稱 | 描述 |
|---|---|
base_trial |
基礎試驗訓練任務名稱。此參數會由 Amazon SageMaker Debugger 自動設定為目前的訓練任務。 必要 有效值:字串 |
num_steps |
由規則檢查判斷張量是否已變更的步驟數。 您想要比較權重比例的步驟數。如果您未傳遞任何值,依預設會對目前步驟和緊接在前儲存的步驟執行此規則。如果您藉由傳遞此參數的值來覆寫預設值,則會在步驟 選用 有效值:整數 預設值: |
large_threshold |
權重更新比例可達到的最大值,在此之前,規則會傳回 選用 有效值:浮點數 預設值: |
small_threshold |
權重更新比例可達到的最小值,低於此值,規則會傳回 選用 有效值:浮點數 預設值: |
epsilon |
小常數,用於確保運算權重更新比例時,偵錯工具不會除以零。 選用 有效值:浮點數 預設值: |
built_in_rules = [ Rule.sagemaker( base_config=rule_configs.weight_update_ratio(), rule_parameters={ "num_steps": "100", "large_threshold": "10.0", "small_threshold": "0.00000001", "epsilon": "0.000000001" }, collections_to_save=[ CollectionConfig( name="weights", parameters={ "train.save_interval": "100" } ) ] ) ]
如需如何設定和部署內建規則的範例,請參閱如何設定 Debugger 內建規則。
注意
此規則不適用於 XGBoost 演算法。
AllZero
此規則偵測張量值的全部或已指定百分比是否為零。
此規則可以套用至其中一個支援的深度學習框架 (TensorFlow、MXNet 和 PyTorch) 或 XGBoost 演算法。您必須指定 collection_names 或 tensor_regex 參數。如果兩個參數都指定,此規則會檢查兩組的張量聯集。
如需如何設定和部署內建規則的範例,請參閱如何設定 Debugger 內建規則。
AllZero 規則的參數描述
| 參數名稱 | 描述 |
|---|---|
base_trial |
基礎試驗訓練任務名稱。此參數會由 Amazon SageMaker Debugger 自動設定為目前的訓練任務。 必要 有效值:字串 |
collection_names |
由規則檢查張量的集合名稱清單。 選用 有效值:字串清單或逗號分隔的字串 預設值: |
tensor_regex |
Regex 模式清單,用於將這項比較限定於特定的純量值張量。此規則只檢查與清單中指定的 Regex 模式相符的張量。如果未傳遞模式,此規則依預設會比較試驗中收集的所有張量。只能比對純量值張量。 選用 有效值:字串清單或逗號分隔的字串 預設值: |
threshold |
指定張量中必須為零的值百分比,才能調用此規則。 選用 有效值:浮點數 預設值:100 (以百分比表示) |
built_in_rules = [ Rule.sagemaker( base_config=rule_configs.all_zero(), rule_parameters={ "tensor_regex": ".*", "threshold": "100" }, collections_to_save=[ CollectionConfig( name="all", parameters={ "save_interval": "500" } ) ] ) ]
ClassImbalance
此規則測量類別之間的抽樣不平衡,如果不平衡超過臨界值,或者,如果因為不平衡而導致不具代表性類別的預測失誤太多次,就會擲回錯誤。
分類模型要求訓練資料集有均衡的類別,或在訓練期間類別有適當的加權/抽樣。規則會執行下列檢查:
-
計算每個類別的出現次數。如果最小和最大類別之間的樣本數比例大於
threshold_imbalance,則會擲回錯誤。 -
檢查每個類別的預測準確度。如果沒有正確重新抽樣或加權,則對於訓練樣本較多的類別,模型可以達到較高準確度,但對於訓練樣本較少的類別,準確度較低。如果某個類別有一小部分的預測失誤超過
threshold_misprediction,則會擲回錯誤。
此規則可以套用至其中一個支援的深度學習框架 (TensorFlow、MXNet 和 PyTorch) 或 XGBoost 演算法。
如需如何設定和部署內建規則的範例,請參閱如何設定 Debugger 內建規則。
ClassImbalance 規則的參數描述
| 參數名稱 | 描述 |
|---|---|
base_trial |
基礎試驗訓練任務名稱。此參數會由 Amazon SageMaker Debugger 自動設定為目前的訓練任務。 必要 有效值:字串 |
threshold_imbalance |
在最小類別和最大類別的樣本數之間可接受的不平衡。超過此臨界值會擲回錯誤。 選用 有效值:浮點數 預設值: |
threshold_misprediction |
每個類別允許的預測失誤比例的限制。超過此臨界值會擲回錯誤。不具代表性的類別最有可能越過此臨界值。 選用 有效值:浮點數 預設值: |
samples |
評估不平衡之前必須處理的標籤數目。此規則直到在數個步驟中看到足夠的樣本才會觸發。資料集包含的類別越多,這個 選用 有效值:整數 預設值: |
argmax |
如果 有條件 有效值:布林值 預設值: |
labels_regex |
包含標籤的張量名稱。 選用 有效值:字串 預設值: |
predictions_regex |
包含預測的張量名稱。 選用 有效值:字串 預設值: |
built_in_rules = [ Rule.sagemaker( base_config=rule_configs.class_imbalance(), rule_parameters={ "threshold_imbalance": "10", "threshold_misprediction": "0.7", "samples": "500", "argmax": "False", "labels_regex": ".*labels", "predictions_regex": ".*predictions" }, collections_to_save=[ CollectionConfig( name="custom_output_collection", parameters={ "include_regex": ".*labels|.*predictions", "save_interval": "500" } ) ] ) ]
LossNotDecreasing
此規則偵測損失的值未以適當的速度降低。這些損失必須是純量。
此規則可以套用至其中一個支援的深度學習框架 (TensorFlow、MXNet 和 PyTorch) 或 XGBoost 演算法。您必須指定 collection_names 或 tensor_regex 參數。如果兩個參數都指定,此規則會檢查兩組的張量聯集。
如需如何設定和部署內建規則的範例,請參閱如何設定 Debugger 內建規則。
LossNotDecreasing 規則的參數描述
| 參數名稱 | 描述 |
|---|---|
base_trial |
基礎試驗訓練任務名稱。此參數會由 Amazon SageMaker Debugger 自動設定為目前的訓練任務。 必要 有效值:字串 |
collection_names |
由規則檢查張量的集合名稱清單。 選用 有效值:字串清單或逗號分隔的字串 預設值: |
tensor_regex |
Regex 模式清單,用於將這項比較限定於特定的純量值張量。此規則只檢查與清單中指定的 Regex 模式相符的張量。如果未傳遞模式,此規則依預設會比較試驗中收集的所有張量。只能比對純量值張量。 選用 有效值:字串清單或逗號分隔的字串 預設值: |
use_losses_collection |
如果設為 選用 有效值:布林值 預設值: |
num_steps |
此規則檢查損失是否已減少之前所需經過的最少步驟數。規則評估每 選用 有效值:整數 預設值: |
diff_percent |
在 選用 有效值: 預設值: |
increase_threshold_percent |
在損失增加的情況下,允許增加損失的閾值百分比上限 選用 有效值: 預設值: |
mode |
規則檢查時用於查詢張量值的偵錯工具模式名稱。如果未通過,規則預設會依序檢查 選用 有效值:字串 ( 預設值: |
built_in_rules = [ Rule.sagemaker( base_config=rule_configs.loss_not_decreasing(), rule_parameters={ "tensor_regex": ".*", "use_losses_collection": "True", "num_steps": "10", "diff_percent": "0.1", "increase_threshold_percent": "5", "mode": "GLOBAL" }, collections_to_save=[ CollectionConfig( name="losses", parameters={ "save_interval": "500" } ) ] ) ]
Overfit
此規則比較驗證和訓練損失,以偵測模型是否過度擬合訓練資料。
此規則可以套用至其中一個支援的深度學習框架 (TensorFlow、MXNet 和 PyTorch) 或 XGBoost 演算法。
如需如何設定和部署內建規則的範例,請參閱如何設定 Debugger 內建規則。
注意
防止過度擬合的標準方法是將模型規範化。
Overfit 規則的參數描述
| 參數名稱 | 描述 |
|---|---|
base_trial |
基礎試驗訓練任務名稱。此參數會由 Amazon SageMaker Debugger 自動設定為目前的訓練任務。 必要 有效值:字串 |
tensor_regex |
Regex 模式清單,用於將這項比較限定於特定的純量值張量。此規則只檢查與清單中指定的 Regex 模式相符的張量。如果未傳遞模式,此規則依預設會比較試驗中收集的所有張量。只能比對純量值張量。 選用 有效值:字串清單或逗號分隔的字串 預設值:無 |
start_step |
開始比較驗證和訓練損失的起始步驟。 選用 有效值:整數 預設值: |
patience |
將模型視為過度擬合之前,允許 選用 有效值:整數 預設值: |
ratio_threshold |
平均驗證損失與平均訓練損失之間的差異佔平均訓練損失的最大比例。如果 選用 有效值:浮點數 預設值: |
built_in_rules = [ Rule.sagemaker( base_config=rule_configs.overfit(), rule_parameters={ "tensor_regex": ".*", "start_step": "0", "patience": "1", "ratio_threshold": "0.1" }, collections_to_save=[ CollectionConfig( name="losses", parameters={ "train.save_interval": "100", "eval.save_interval": "10" } ) ] ) ]
Overtraining
此規則偵測模型是否訓練過度。在運作良好的模型上進行了數次訓練反覆運算 (訓練和驗證遺失都減少) 之後,模型會接近最小程度的損失函式,並且不再改善。如果模型繼續訓練,則可能會發生驗證遺失開始增加,因為模型開始過度擬合。此規則會設定閾值和條件,以確定模型是否沒有改善,並防止由於過度訓練而導致的過度擬合問題。
此規則可以套用至其中一個支援的深度學習框架 (TensorFlow、MXNet 和 PyTorch) 或 XGBoost 演算法。
如需如何設定和部署內建規則的範例,請參閱如何設定 Debugger 內建規則。
注意
可提早停止以避免訓練過度。如需提早停止的相關資訊,請參閱提前停止訓練任務。如需示範如何將 Spot 訓練與偵錯工具搭配使用的範例,請參閱以 Amazon SageMaker Debugger 啟用 Spot 訓練
Overtraining 規則的參數描述
| 參數名稱 | 描述 |
|---|---|
base_trial |
基礎試驗訓練任務名稱。此參數會由 Amazon SageMaker Debugger 自動設定為目前的訓練任務。 必要 有效值:字串 |
patience_train |
認定訓練損失已不再改善之前等待的步驟數。 選用 有效值:整數 預設值: |
patience_validation |
認定驗證損失已不再改善之前等待的步驟數。 選用 有效值:整數 預設值: |
delta |
應該改善多少誤差才視為新的最佳結果之前的最小臨界值。 選用 有效值:浮點數 預設值: |
built_in_rules = [ Rule.sagemaker( base_config=rule_configs.overtraining(), rule_parameters={ "patience_train": "5", "patience_validation": "10", "delta": "0.01" }, collections_to_save=[ CollectionConfig( name="losses", parameters={ "save_interval": "500" } ) ] ) ]
SimilarAcrossRuns
此規則比較從基礎試驗收集的張量與來自另一個試驗的張量。
此規則可以套用至其中一個支援的深度學習框架 (TensorFlow、MXNet 和 PyTorch) 或 XGBoost 演算法。
如需如何設定和部署內建規則的範例,請參閱如何設定 Debugger 內建規則。
SimilarAcrossRuns 規則的參數描述
| 參數名稱 | 描述 |
|---|---|
base_trial |
基礎試驗訓練任務名稱。此參數會由 Amazon SageMaker Debugger 自動設定為目前的訓練任務。 必要 有效值:字串 |
other_trials |
已完成的訓練任務名稱,您想要將其張量與從目前 必要 有效值:字串 |
collection_names |
由規則檢查張量的集合名稱清單。 選用 有效值:字串清單或逗號分隔的字串 預設值:無 |
tensor_regex |
Regex 模式清單,用於將這項比較限定於特定的純量值張量。此規則只檢查與清單中指定的 Regex 模式相符的張量。如果未傳遞模式,此規則依預設會比較試驗中收集的所有張量。只能比對純量值張量。 選用 有效值:字串清單或逗號分隔的字串 預設值:無 |
built_in_rules = [ Rule.sagemaker( base_config=rule_configs.similar_across_runs(), rule_parameters={ "other_trials": "<specify-another-job-name>", "collection_names": "losses", "tensor_regex": ".*" }, collections_to_save=[ CollectionConfig( name="losses", parameters={ "save_interval": "500" } ) ] ) ]
StalledTrainingRule
StalledTrainingRule 會偵測訓練任務是否沒有任何進度,並在規則觸發時停止訓練任務。此規則需要以其 threshold 參數定義的時間間隔定期儲存張量。此規則會持續監控新張量,並且如果沒有在閾值間隔發出新的張量,則會觸發規則。
StalledTrainingRule 規則的參數描述
| 參數名稱 | 描述 |
|---|---|
base_trial |
基礎試驗訓練任務名稱。此參數會由 Amazon SageMaker Debugger 自動設定為目前的訓練任務。 必要 有效值:字串 |
threshold |
一種閾值,定義規則等待張量輸出的時間 (以秒為單位),直到觸發已停止的訓練問題為止。預設值為 1800 秒。 選用 有效值:整數 預設值: |
stop_training_on_fire |
如果設定為 選用 有效值:布林值 預設值: |
training_job_name_prefix |
基礎訓練任務名稱的字首。如果 選用 有效值:字串 |
built_in_rules = [ Rule.sagemaker( base_config=rule_configs.stalled_training_rule(), rule_parameters={ "threshold": "1800", "stop_training_on_fire": "True", "training_job_name_prefix": "<specify-training-base-job-name>" }, collections_to_save=[ CollectionConfig( name="losses", parameters={ "save_interval": "500" } ) ] ) ]
TensorVariance
此規則偵測張量是否有極高或極低的變異。張量中的極高或極低變異可能導致神經元飽和,從而降低神經網路的學習能力。張量中的極高變異最終也會導致張量爆炸。使用此規則可提早偵測此類問題。
此規則可以套用至其中一個支援的深度學習框架 (TensorFlow、MXNet 和 PyTorch) 或 XGBoost 演算法。您必須指定 collection_names 或 tensor_regex 參數。如果兩個參數都指定,此規則會檢查兩組的張量聯集。
如需如何設定和部署內建規則的範例,請參閱如何設定 Debugger 內建規則。
TensorVariance 規則的參數描述
| 參數名稱 | 描述 |
|---|---|
base_trial |
基礎試驗訓練任務名稱。此參數會由 Amazon SageMaker Debugger 自動設定為目前的訓練任務。 必要 有效值:字串 |
collection_names |
由規則檢查張量的集合名稱清單。 選用 有效值:字串清單或逗號分隔的字串 預設值:無 |
tensor_regex |
Regex 模式清單,用於將這項比較限定於特定的純量值張量。此規則只檢查與清單中指定的 Regex 模式相符的張量。如果未傳遞模式,此規則依預設會比較試驗中收集的所有張量。只能比對純量值張量。 選用 有效值:字串清單或逗號分隔的字串 預設值:無 |
max_threshold |
張量變異上限的臨界值。 選用 有效值:浮點數 預設值:無 |
min_threshold |
張量變異下限的臨界值。 選用 有效值:浮點數 預設值:無 |
built_in_rules = [ Rule.sagemaker( base_config=rule_configs.tensor_variance(), rule_parameters={ "collection_names": "weights", "max_threshold": "10", "min_threshold": "0.00001", }, collections_to_save=[ CollectionConfig( name="weights", parameters={ "save_interval": "500" } ) ] ) ]
UnchangedTensor
此規則偵測張量是否不再於步驟之間變更。
此規則執行 numpy.allclose
此規則可以套用至其中一個支援的深度學習框架 (TensorFlow、MXNet 和 PyTorch) 或 XGBoost 演算法。您必須指定 collection_names 或 tensor_regex 參數。如果兩個參數都指定,此規則會檢查兩組的張量聯集。
如需如何設定和部署內建規則的範例,請參閱如何設定 Debugger 內建規則。
UnchangedTensor 規則的參數描述
| 參數名稱 | 描述 |
|---|---|
base_trial |
基礎試驗訓練任務名稱。此參數會由 Amazon SageMaker Debugger 自動設定為目前的訓練任務。 必要 有效值:字串 |
collection_names |
由規則檢查張量的集合名稱清單。 選用 有效值:字串清單或逗號分隔的字串 預設值:無 |
tensor_regex |
Regex 模式清單,用於將這項比較限定於特定的純量值張量。此規則只檢查與清單中指定的 Regex 模式相符的張量。如果未傳遞模式,此規則依預設會比較試驗中收集的所有張量。只能比對純量值張量。 選用 有效值:字串清單或逗號分隔的字串 預設值:無 |
num_steps |
由規則檢查判斷張量是否已變更的步驟數。 這會檢查最後可用的 選用 有效值:整數 預設值: |
rtol |
要傳遞給 選用 有效值:浮點數 預設值: |
atol |
要傳遞給 選用 有效值:浮點數 預設值: |
equal_nan |
是否將 NaN 比作相等。如果 選用 有效值:布林值 預設值: |
built_in_rules = [ Rule.sagemaker( base_config=rule_configs.unchanged_tensor(), rule_parameters={ "collection_names": "losses", "tensor_regex": "", "num_steps": "3", "rtol": "1e-05", "atol": "1e-08", "equal_nan": "False" }, collections_to_save=[ CollectionConfig( name="losses", parameters={ "save_interval": "500" } ) ] ) ]
CheckInputImages
此規則檢查輸入影像是否已正確標準化。具體來說,此規則會偵測樣本資料的平均值與零相差是否大於一個臨界值。許多電腦視覺模型要求輸入資料具有零平均值和單位變異。
此規則適用於深度學習應用程式。
如需如何設定和部署內建規則的範例,請參閱如何設定 Debugger 內建規則。
CheckInputImages 規則的參數描述
| 參數名稱 | 描述 |
|---|---|
base_trial |
基礎試驗訓練任務名稱。此參數會由 Amazon SageMaker Debugger 自動設定為目前的訓練任務。 必要 有效值:字串 |
threshold_mean |
此臨界值定義輸入資料的平均值可以與 0 相差的程度。 選用 有效值:浮點數 預設值: |
threshold_samples |
擲回錯誤之前必須取樣的影像數量。如果值太低,資料集平均值的估計會不準確。 選用 有效值:整數 預設值: |
regex |
輸入資料張量的名稱。 選用 有效值:字串 預設值: |
channel |
輸入張量形狀陣列中顏色頻道的位置。 選用 有效值:整數 預設值: |
built_in_rules = [ Rule.sagemaker( base_config=rule_configs.check_input_images(), rule_parameters={ "threshold_mean": "0.2", "threshold_samples": "500", "regex": ".*hybridsequential0_input_0", "channel": "1" }, collections_to_save=[ CollectionConfig( name="custom_inputs_collection", parameters={ "include_regex": ".*hybridsequential0_input_0", "save_interval": "500" } ) ] ) ]
NLPSequenceRatio
此規則根據輸入序列的其餘部分計算特定符記的比例,對於效能最佳化很有用。例如,您可以計算輸入序列中填補句尾 (EOS) 符記的百分比。如果 EOS 符記數量過高,則應該執行替代的分桶策略。您還可以計算輸入序列中未知符記的百分比。如果未知單字的數量過高,可以使用替代字彙。
此規則適用於深度學習應用程式。
如需如何設定和部署內建規則的範例,請參閱如何設定 Debugger 內建規則。
NLPSequenceRatio 規則的參數描述
| 參數名稱 | 描述 |
|---|---|
base_trial |
基礎試驗訓練任務名稱。此參數會由 Amazon SageMaker Debugger 自動設定為目前的訓練任務。 必要 有效值:字串 |
tensor_regex |
Regex 模式清單,用於將這項比較限定於特定的純量值張量。此規則只檢查與清單中指定的 Regex 模式相符的張量。如果未傳遞模式,此規則依預設會比較試驗中收集的所有張量。只能比對純量值張量。 選用 有效值:字串清單或逗號分隔的字串 預設值: |
token_values |
符記的數值清單字串。例如,"3, 0"。 選用 有效值:以逗號分隔的數值字串 預設值: |
token_thresholds_percent |
對應於每個 選用 有效值:以逗號分隔的浮點數字串 預設值: |
built_in_rules = [ Rule.sagemaker( base_config=rule_configs.nlp_sequence_ratio(), rule_parameters={ "tensor_regex": ".*embedding0_input_0", "token_values": "0", "token_thresholds_percent": "50" }, collections_to_save=[ CollectionConfig( name="custom_inputs_collection", parameters={ "include_regex": "" } ) ] ) ].*embedding0_input_0
Confusion
此規則評估分類問題的混淆矩陣是否良好。
建立 category_no*category_no 大小的矩陣,並填入來自 (labels, predictions) 配對的資料。對於每個 (labels, predictions) 配對,confusion[labels][predictions] 中的計數以 1 遞增。完全填入矩陣時,對角線值和非對角線值的資料比例計算如下:
-
對角線的元素:
confusion[i][i]/sum_j(confusion[j][j])>=min_diag -
非對角線的元素:
confusion[j][i])/sum_j(confusion[j][i])<=max_off_diag
此規則可以套用至 XGBoost 演算法。
如需如何設定和部署內建規則的範例,請參閱如何設定 Debugger 內建規則。
Confusion 規則的參數描述
| 參數名稱 | 描述 |
|---|---|
base_trial |
基礎試驗訓練任務名稱。此參數會由 Amazon SageMaker Debugger 自動設定為目前的訓練任務。 必要 有效值:字串 |
category_no |
類別的數目。 選用 有效值:整數 ≥2 預設值: |
labels |
選用 有效值:字串 預設值: |
predictions |
選用 有效值:字串 預設值: |
labels_collection |
此規則檢查此 選用 有效值:字串 預設值: |
predictions_collection |
此規則檢查此 選用 有效值:字串 預設值: |
min_diag |
對角線資料比例的閾值下限。 選用 有效值: 預設值: |
max_off_diag |
非對角線資料比例的閾值上限。 選用 有效值: 預設值: |
built_in_rules = [ Rule.sagemaker( base_config=rule_configs.confusion(), rule_parameters={ "category_no": "10", "labels": "labels", "predictions": "predictions", "labels_collection": "labels", "predictions_collection": "predictions", "min_diag": "0.9", "max_off_diag": "0.1" }, collections_to_save=[ CollectionConfig( name="labels", parameters={ "save_interval": "500" } ), CollectionConfig( name="predictions", parameters={ "include_regex": "500" } ) ] ) ]
注意
如果未指定選用參數的值,此規則會推斷預設值。
FeatureImportanceOverweight
此規則會累積每個步驟 n 個最大功能重要性值的權重,並確保它們不會超過閾值。例如,您可以將前 3 個功能的閾值設定為不超過模型總權重的 80%。
此規則僅適用於 XGBoost 演算法。
如需如何設定和部署內建規則的範例,請參閱如何設定 Debugger 內建規則。
FeatureImportanceOverweight 規則的參數描述
| 參數名稱 | 描述 |
|---|---|
base_trial |
基礎試驗訓練任務名稱。此參數會由 Amazon SageMaker Debugger 自動設定為目前的訓練任務。 必要 有效值:字串 |
threshold |
定義 選用 有效值:浮點數 預設值: |
nfeatures |
最大功能的數量。 選用 有效值:整數 預設值: |
tensor_regex |
張量的規則表達式 (regex) 命名要分析的規則。 選用 有效值:字串 預設值: |
built_in_rules = [ Rule.sagemaker( base_config=rule_configs.feature_importance_overweight(), rule_parameters={ "threshold": "0.8", "nfeatures": "3", "tensor_regex": ".*feature_importance/weight" }, collections_to_save=[ CollectionConfig( name="feature_importance", parameters={ "save_interval": "500" } ) ] ) ]
TreeDepth
此規則測量 XGBoost 模型中樹狀深度。如果分割未能改善損失,XGBoost 會拒絕分割。這可將訓練規範化。因此,樹狀結構可能不會成長 depth 參數所定義的深度。
此規則僅適用於 XGBoost 演算法。
如需如何設定和部署內建規則的範例,請參閱如何設定 Debugger 內建規則。
TreeDepth 規則的參數描述
| 參數名稱 | 描述 |
|---|---|
base_trial |
基礎試驗訓練任務名稱。此參數會由 Amazon SageMaker Debugger 自動設定為目前的訓練任務。 必要 有效值:字串 |
depth |
樹狀的深度。計算最大節點 ID 的基數 2 對數可得到樹狀的深度。 選用 有效值:浮點數 預設值: |
built_in_rules = [ Rule.sagemaker( base_config=rule_configs.tree_depth(), rule_parameters={ "depth": "4" }, collections_to_save=[ CollectionConfig( name="tree", parameters={ "save_interval": "500" } ) ] ) ]