Les traductions sont fournies par des outils de traduction automatique. En cas de conflit entre le contenu d'une traduction et celui de la version originale en anglais, la version anglaise prévaudra.
Fonctionnement de TabTransformer
TabTransformer est une nouvelle architecture approfondie de modélisation de données tabulaire pour un apprentissage supervisé. TabTransformer repose sur des Transformers basés sur l'auto-attention (self-attention). Les couches de Transformers transforment les intégrations des caractéristiques catégorielles en intégrations contextuelles robustes pour obtenir une meilleure précision de prédiction. En outre, les intégrations contextuelles apprises à partir de TabTransformer sont très robustes face aux caractéristiques de données manquantes et bruyantes, et offrent une meilleure interprétabilité.
L'algorithme TabTransformer fonctionne bien dans les compétitions de Machine Learning en raison de son traitement robuste de divers types de données, de relations et de distributions, et de la variété d'hyperparamètres que vous pouvez affiner. Vous pouvez utiliser TabTransformer pour les problèmes de régression, de classification (binaire et multi-classes) et de classement.
Le schéma suivant illustre l'architecture de TabTransformer.
Pour plus d'informations, consultez TabTransformer : modélisation de données tabulaire à l'aide d'intégrations contextuelles