

Les traductions sont fournies par des outils de traduction automatique. En cas de conflit entre le contenu d'une traduction et celui de la version originale en anglais, la version anglaise prévaudra.

# Bonnes pratiques
<a name="best-practices"></a>

Les rubriques suivantes fournissent des conseils sur les meilleures pratiques en matière de déploiement de modèles d'apprentissage automatique dans Amazon SageMaker AI.

**Topics**
+ [Bonnes pratiques pour déployer des modèles sur les services d'hébergement SageMaker AI](deployment-best-practices.md)
+ [Surveillance des bonnes pratiques de sécurité](monitor-sec-best-practices.md)
+ [Inférence en temps réel à faible latence avec AWS PrivateLink](realtime-endpoints-privatelink.md)
+ [Migrer la charge de travail d'inférence de x86 vers Graviton AWS](realtime-endpoints-graviton.md)
+ [Résoudre les problèmes liés aux déploiements de modèles Amazon SageMaker AI](deploy-model-troubleshoot.md)
+ [Bonnes pratiques d'optimisation des coûts d'inférence](inference-cost-optimization.md)
+ [Bonnes pratiques pour minimiser les interruptions lors de la mise à jour des pilotes de GPU.](inference-gpu-drivers.md)
+ [Meilleures pratiques en matière de sécurité et d'intégrité des terminaux avec Amazon SageMaker AI](best-practice-endpoint-security.md)
+ [Mise à jour des conteneurs d’inférence pour les rendre conformes au NVIDIA Container Toolkit](container-nvidia-compliance.md)