diff --git a/README.md b/README.md
index 4e86a9844459aca71210bce98b1ace22647f501e..75dbb350aa6768c2eda5839f82ee1ab81e956618 100644
--- a/README.md
+++ b/README.md
@@ -8,11 +8,11 @@ LLaMandement est un grand modèle de langage (LLM) à l'état de l'art, soumis a
 
 ## Détails du Modèle
 
-- **Développé par:** [DGFIP](https://www.impots.gouv.fr/presentation-de-la-dgfip-overview-dgfip) : 
-- **Type de modèle:** An auto-regressive language model based on the transformer architecture
+- **Développé par:** [Direction Générale des Finances Publiques](https://www.impots.gouv.fr/presentation-de-la-dgfip-overview-dgfip) : 
+- **Type de modèle:** Un modèle de langue auto-régressif basé sur l'architecture transformers
 - **Licence:** Llama 2 Community License Agreement
 - **Basé sur le modèle:** [Llama 2](https://arxiv.org/abs/2307.09288)
-- **Papier:** [Technical Report](https://arxiv.org/abs/2401.16182)
+- **Papier:** [Rapport technique](https://arxiv.org/abs/2401.16182)
 
 ## Installation
 
@@ -54,8 +54,8 @@ Cette commande vous permet de démarrer le modèle et de commencer à l'interrog
 
 ## Re-Entraîner LLaMAndement
 
-Les données d'entraînement qui ont servi à apprendre à LLamadanement se trouvent dans ./data/fine_tuning_data_dila_v4.json.
-Pour plus d'informations sur la composition du dataset, voir la section 3.3 dans l'article suivant : xxxx
+Les données d'entraînement qui ont servi à apprendre à LLamandement se trouvent dans ./data/fine_tuning_data_dila_v4.json.
+Pour plus d'informations sur la composition du dataset, voir la section 3.3 du [rapport technique](https://arxiv.org/abs/2401.16182)
 
 Si vous souhaitez ré-entraîner LLaMAndement, voici les étapes à suivre :