Modèles de hub TensorFlow
Les modèles pré-entraînés suivants peuvent être utilisés pour l'apprentissage par transfert avec l'algorithme Text Classification - TensorFlow.
Les modèles suivants varient de manière significative par leur taille, le nombre de paramètres de modèle, la durée d'entraînement et la latence d'inférence pour n'importe quel jeu de données. Le meilleur modèle pour votre cas d'utilisation dépend de la complexité de l'affinage du jeu de données et de toutes vos exigences en matière de durée d'entraînement, de latence d'inférence ou de précision du modèle.
| Nom du modèle | model_id |
Source |
|---|---|---|
|
BERT Base Uncased |
|
|
|
BERT Base Cased |
|
|
|
BERT Base Multilingual Cased |
|
|
|
Small BERT L-2_H-128_A-2 |
|
|
|
Small BERT L-2_H-256_A-4 |
|
|
|
Small BERT L-2_H-512_A-8 |
|
|
|
Small BERT L-2_H-768_A-12 |
|
|
|
Small BERT L-4_H-128_A-2 |
|
|
|
Small BERT L-4_H-256_A-4 |
|
|
|
Small BERT L-4_H-512_A-8 |
|
|
|
Small BERT L-4_H-768_A-12 |
|
|
|
Small BERT L-6_H-128_A-2 |
|
|
|
Small BERT L-6_H-256_A-4 |
|
|
|
Small BERT L-6_H-512_A-8 |
|
|
|
Small BERT L-6_H-768_A-12 |
|
|
|
Small BERT L-8_H-128_A-2 |
|
|
|
Small BERT L-8_H-256_A-4 |
|
|
|
Small BERT L-8_H-512_A-8 |
|
|
|
Small BERT L-8_H-768_A-12 |
|
|
|
Small BERT L-10_H-128_A-2 |
|
|
|
Small BERT L-10_H-256_A-4 |
|
|
|
Small BERT L-10_H-512_A-8 |
|
|
|
Small BERT L-10_H-768_A-12 |
|
|
|
Small BERT L-12_H-128_A-2 |
|
|
|
Small BERT L-12_H-256_A-4 |
|
|
|
Small BERT L-12_H-512_A-8 |
|
|
|
Small BERT L-12_H-768_A-12 |
|
|
|
BERT Large Uncased |
|
|
|
BERT Large Cased |
|
|
|
BERT Large Uncased Whole Word Masking |
|
|
|
BERT Large Cased Whole Word Masking |
|
|
|
ALBERT Base |
|
|
|
ELECTRA Small++ |
|
|
|
ELECTRA Base |
|
|
|
BERT Base Wikipedia et BooksCorpus |
|
|
|
BERT Base MEDLINE/PubMed |
|
|
|
Talking Heads Base |
|
|
|
Talking Heads Large |
|