Commit
•
4f64e13
1
Parent(s):
380cdef
Fix hashlinks (#2)
Browse files- Fix hashlinks (fd618cc453e9c426564f4b11c5c55f87bcb5f3ca)
Co-authored-by: Mishig Davaadorj <mishig@users.noreply.huggingface.co>
README.md
CHANGED
@@ -7,7 +7,7 @@ language:
|
|
7 |
|
8 |
# Carte du modèle : Guillaume Tell
|
9 |
|
10 |
-
[Version française](#
|
11 |
|
12 |
---
|
13 |
# Version française
|
@@ -20,11 +20,11 @@ language:
|
|
20 |
2. [Utilisation](#utilisation)
|
21 |
- [Contexte de création](#contexte-de-création)
|
22 |
- [Finalités et limites du modèle](#finalités-et-limites-du-modèle)
|
23 |
-
- [Cas d'usage et utilisateurs](#cas-
|
24 |
- [Exemple](#exemple)
|
25 |
3. [Prompt](#prompt)
|
26 |
4. [Informations sur le finetuning](#informations-sur-le-finetuning)
|
27 |
-
5. [Utilisation d'Albert pour des tâches de RAG](#utilisation-
|
28 |
5. [Glossaire](#glossaire)
|
29 |
---
|
30 |
|
@@ -46,7 +46,7 @@ Le modèle "Guillaume Tell" vise à améliorer la vérifiabilité de la généra
|
|
46 |
---
|
47 |
## Utilisation
|
48 |
### Contexte de création
|
49 |
-
Guillaume Tell a été developpé pour **ALBERT**, l’outil d’IA Générative interministérielle de l’État, et plus particulièrement dans le cadre de [l'expérimentation d'un modèle d'assistance aux conseillers numériques](https://www.france-services.gouv.fr/actualites/experimentation-dun-modele-dassistance-france-services-IA) [France services](#
|
50 |
|
51 |
### Finalités et limites du modèle
|
52 |
Guillaume Tell est un modèle de langage, avec des capacités conversationnelles et de recherche d'information sourcée. Il peut être utilisé pour formuler une réponse à des questions relatives à l'administration française (eg. démarches administratives) en allant récupérer des informations pertinentes dans sa base de connaissances (RAG) et en synthétisant une réponse à partir de celles-ci.
|
@@ -138,7 +138,7 @@ Guillaume Tell a été fine tuné en utilisant l'approche LORA et une quantizati
|
|
138 |
Le code de finetuning `finetuning.py` est disponible dans la section `Files and versions`.
|
139 |
|
140 |
---
|
141 |
-
## Utilisation d'Albert pour des tâches de [RAG](#
|
142 |
|
143 |
Il est possible d'utiliser des techniques de RAG afin d'optimiser la pertinence de la réponse du modèle. Nous pouvons ainsi obtenir des réponses basées sur les bonnes données adaptées à la question.
|
144 |
C'est ce que nous faisons actuellement en production avec ALBERT.
|
@@ -166,16 +166,16 @@ C'est ce que nous faisons actuellement en production avec ALBERT.
|
|
166 |
|
167 |
---
|
168 |
## Table of contents
|
169 |
-
1. [Model details](#
|
170 |
-
2. [Uses](#
|
171 |
-
- [Creation context](#
|
172 |
-
- [Purposes and limitations of the model](#
|
173 |
-
- [Use-cases-and-users](#
|
174 |
-
- [Example](#
|
175 |
-
3. [Prompt](#
|
176 |
-
4. [Finetuning information](#
|
177 |
-
5. [Using Albert for RAG tasks](#
|
178 |
-
5. [Glossary](#
|
179 |
---
|
180 |
|
181 |
## Model details
|
@@ -286,7 +286,7 @@ Guillaume Tell was fine-tuned using the LORA approach and 4-bit quantization on
|
|
286 |
The finetuning code `finetuning.py` is available in the `Files and versions` section.
|
287 |
|
288 |
---
|
289 |
-
## Using Albert for [RAG](#
|
290 |
|
291 |
RAG techniques can be used to optimize the relevance of the model's response. In this way, we can obtain answers based on the right data for the right question.
|
292 |
This is what we are currently doing in production with ALBERT.
|
@@ -310,5 +310,3 @@ At the time of the model's release, the data for ALBERT's RAG consisted of the f
|
|
310 |
## Evaluation
|
311 |
|
312 |
<!-- This section describes the evaluation protocols and provides the results. -->
|
313 |
-
|
314 |
-
|
|
|
7 |
|
8 |
# Carte du modèle : Guillaume Tell
|
9 |
|
10 |
+
[Version française](#version-française) / [English version](#english-version)
|
11 |
|
12 |
---
|
13 |
# Version française
|
|
|
20 |
2. [Utilisation](#utilisation)
|
21 |
- [Contexte de création](#contexte-de-création)
|
22 |
- [Finalités et limites du modèle](#finalités-et-limites-du-modèle)
|
23 |
+
- [Cas d'usage et utilisateurs](#cas-dusage-et-utilisateurs)
|
24 |
- [Exemple](#exemple)
|
25 |
3. [Prompt](#prompt)
|
26 |
4. [Informations sur le finetuning](#informations-sur-le-finetuning)
|
27 |
+
5. [Utilisation d'Albert pour des tâches de RAG](#utilisation-dalbert-pour-des-tâches-de-ragglossaire)
|
28 |
5. [Glossaire](#glossaire)
|
29 |
---
|
30 |
|
|
|
46 |
---
|
47 |
## Utilisation
|
48 |
### Contexte de création
|
49 |
+
Guillaume Tell a été developpé pour **ALBERT**, l’outil d’IA Générative interministérielle de l’État, et plus particulièrement dans le cadre de [l'expérimentation d'un modèle d'assistance aux conseillers numériques](https://www.france-services.gouv.fr/actualites/experimentation-dun-modele-dassistance-france-services-IA) [France services](#glossaire) basé sur l’intelligence artificielle. Guillaume Tell vise à répondre aux besoins spécifiques des conseillers face à un LLM, en l'occurence la vérification des réponses générées par Albert pour s'assurer de leur justesse avant de les transmettre à des usagers accueillis en maison France services.
|
50 |
|
51 |
### Finalités et limites du modèle
|
52 |
Guillaume Tell est un modèle de langage, avec des capacités conversationnelles et de recherche d'information sourcée. Il peut être utilisé pour formuler une réponse à des questions relatives à l'administration française (eg. démarches administratives) en allant récupérer des informations pertinentes dans sa base de connaissances (RAG) et en synthétisant une réponse à partir de celles-ci.
|
|
|
138 |
Le code de finetuning `finetuning.py` est disponible dans la section `Files and versions`.
|
139 |
|
140 |
---
|
141 |
+
## Utilisation d'Albert pour des tâches de [RAG](#glossaire)
|
142 |
|
143 |
Il est possible d'utiliser des techniques de RAG afin d'optimiser la pertinence de la réponse du modèle. Nous pouvons ainsi obtenir des réponses basées sur les bonnes données adaptées à la question.
|
144 |
C'est ce que nous faisons actuellement en production avec ALBERT.
|
|
|
166 |
|
167 |
---
|
168 |
## Table of contents
|
169 |
+
1. [Model details](#model-details)
|
170 |
+
2. [Uses](#uses)
|
171 |
+
- [Creation context](#creation-context)
|
172 |
+
- [Purposes and limitations of the model](#purposes-and-limitations-of-the-model)
|
173 |
+
- [Use-cases-and-users](#use-cases-and-users)
|
174 |
+
- [Example](#example)
|
175 |
+
3. [Prompt](#prompt-1)
|
176 |
+
4. [Finetuning information](#finetuning-information)
|
177 |
+
5. [Using Albert for RAG tasks](#using-albert-for-rag--tasks)
|
178 |
+
5. [Glossary](#glossary)
|
179 |
---
|
180 |
|
181 |
## Model details
|
|
|
286 |
The finetuning code `finetuning.py` is available in the `Files and versions` section.
|
287 |
|
288 |
---
|
289 |
+
## Using Albert for [RAG](#glossary) tasks
|
290 |
|
291 |
RAG techniques can be used to optimize the relevance of the model's response. In this way, we can obtain answers based on the right data for the right question.
|
292 |
This is what we are currently doing in production with ALBERT.
|
|
|
310 |
## Evaluation
|
311 |
|
312 |
<!-- This section describes the evaluation protocols and provides the results. -->
|
|
|
|