Modèle de Masking sur les données Twitch FR
L'expérimentation menée au sein de Lincoln avait pour principal objectif de mettre en œuvre des techniques NLP from scratch sur un corpus de messages issus d’un chat Twitch. Ces derniers sont exprimés en français, mais sur une plateforme internet avec le vocabulaire internet que cela implique (fautes, vocabulaire communautaires, abréviations, anglicisme, emotes, ...).
Nos contraintes sont celles d’une entreprise n’ayant pas une volumétrie excessive de données et une puissance infinie de calcul. Il a été nécessaire de construire un nouveau tokenizer afin de mieux correspondre à notre corpus plutôt qu’un tokenizer français existant.
Note corpus étant faible en volumétrie par rapport aux données habituelles pour entrainer un modèle BERT, nous avons opté pour l’entrainement d’un modèle dit « small ». Et il a été montré dans la littérature qu’un corpus de quelques giga octets peut donner de bons résultats, c’est pourquoi nous avons continué avec notre corpus.
La limite de la puissance de calcul a été contourné à l’aide d’une nouvelle architecture d’apprentissage basée sur un double modèle générateur / discriminateur.
Ceci nous a permis d’entrainer un modèle de langue ConvBERT sur nos données, ainsi qu’un modèle de masking en quelques heures sur une carte GPU V100.
Nous garantissons pas la stabilité du modèle sur le long terme. Modèle réalisé dans le cadre d'un POC.
Données
Streamer | Nbr de messages | Categories notables en 2021 |
---|---|---|
Ponce | 2 604 935 | Chatting/Mario Kart/FIFA |
Domingo | 1 209 703 | Chatting/talk-shows/FM2O21 |
Mistermv | 1 205 882 | Isaac/Special events/TFT |
Zerator | 900 894 | New World/WOW/Valorant |
Blitzstream | 821 585 | Chess |
Squeezie | 602 148 | Chatting / Minecraft |
Antoinedaniellive | 548 497 | Geoguessr |
Jeanmassietaccropolis/jeanmassiet | 301 387 | Talk-shows/chatting/special events |
Samueletienne | 215 956 | chatting |
Sur la période du 12/03/2021 au 22/07/2021. La totalité des messages comptent 9 410 987 messages sur ces neufs streamers. Ces messages sont issus du canal IRC, donc n’ont pas subi de modération
Les données d'entrainement du modèle de masking contient 899 652 instances de train et 99 962 instances de test. Les données ont été formaté en concaténant les messages sur une fenêtre de 10s. Cette fenêtre correspond à une fenêtre courte qui regroupe des messages très « proches » temporellement.
- 512 tokens max
- Probabilité du « mask » : 15%
Application
Voir github public lincoln/twitchatds pour les détails d'implémentation et les résultats.
Remarques
- Expérimentation ponctuelle
- Les métriques d'entrainement sont disponibles dans l'onglet Training metrics
- Pour une meilleure stabilité, les données doivent être plus hétérogènes et volumineuse. Le modèle doit être entrainé + de 24h.
- Le token
<mask>
fonctionne probablement mieux sans laisser d'espace à gauche. Cela est dû au fait quelstrip=False
pour ce token spécial.
Usage
from transformers import AutoTokenizer, ConvBertForMaskedLM
from transformers import pipeline
model_name = 'lincoln/2021twitchfr-conv-bert-small-mlm'
tokenizer_name = 'lincoln/2021twitchfr-conv-bert-small'
loaded_tokenizer = AutoTokenizer.from_pretrained(tokenizer_name)
loaded_model = ConvBertForMaskedLM.from_pretrained(model_name)
nlp = pipeline('fill-mask', model=loaded_model, tokenizer=loaded_tokenizer)
nlp('<mask> les gens !')
Modèles:
- Downloads last month
- 10