diff --git a/README.md b/README.md
index ea1914b17046392083627a825df311367e6baa1a..4e86a9844459aca71210bce98b1ace22647f501e 100644
--- a/README.md
+++ b/README.md
@@ -4,7 +4,15 @@
     <img src="assets/logo.png" width="30%">
 </p>
 
-Ce rapport présente LLaMandement, un grand modèle de langage (LLM) à l'état de l'art, spécialisé par les agents du Gouvernement afin d'améliorer l'efficacité du traitement des travaux parlementaires français (dont notamment la rédaction des fiches de banc et les travaux préparatoires des réunions interministérielles) grâce à la production de résumés neutres des projets et propositions de loi. LLaMandement est une réponse à la problématique de la gestion d'un nombre d'amendements toujours plus important par les agents de l'administration française. Ce projet représente une avancée technologique significative, en proposant une solution permettant de dépasser l'efficacité et la capacité d'adaptation des agents administratifs à la réalisation d'un travail toujours plus conséquent et de plus en plus difficielement réalisable dans une durée limitée par un humain, tout en offrant la fiabilité et la précision d'un rédacteur spécialisé.
+LLaMandement est un grand modèle de langage (LLM) à l'état de l'art, soumis a un fine-tuning par les agents du Gouvernement afin d'améliorer l'efficacité du traitement des travaux parlementaires français (dont notamment la rédaction des fiches de banc et les travaux préparatoires des réunions interministérielles) grâce à la production de résumés neutres des projets et propositions de loi. LLaMandement est une réponse à la problématique de la gestion d'un nombre d'amendements toujours plus important par les agents de l'administration française. Ce projet représente une avancée technologique significative, en proposant une solution permettant de dépasser l'efficacité et la capacité d'adaptation des agents administratifs à la réalisation d'un travail toujours plus conséquent et de plus en plus difficilement réalisable dans une durée limitée par un humain, tout en offrant la fiabilité et la précision d'un rédacteur spécialisé.
+
+## Détails du Modèle
+
+- **Développé par:** [DGFIP](https://www.impots.gouv.fr/presentation-de-la-dgfip-overview-dgfip) : 
+- **Type de modèle:** An auto-regressive language model based on the transformer architecture
+- **Licence:** Llama 2 Community License Agreement
+- **Basé sur le modèle:** [Llama 2](https://arxiv.org/abs/2307.09288)
+- **Papier:** [Technical Report](https://arxiv.org/abs/2401.16182)
 
 ## Installation
 
@@ -31,9 +39,7 @@ Pour installer Docker, vous pouvez consulter la documentation officielle de Dock
 
 ## Commencer avec LLamadement
 
-Les poids pré-entraînés du modèle LLamadement sont disponibles sur Hugging Face à l'adresse suivante : [https://huggingface.co/dgfip/llamandement](https://huggingface.co/dgfip/llamandement).    
-Vous pouvez les télécharger et les utiliser pour démarrer rapidement avec le modèle.
-
+Les poids pré-entraînés du modèle LLamadement sont disponibles sur Hugging Face à l'adresse suivante : [LlaMAndement-7b](https://huggingface.co/ActeurPublic/LlaMAndement-7b) et [LlaMAndement-13b](https://huggingface.co/ActeurPublic/LlaMAndement-13b).   
 
 ### Inférence avec l'interface de ligne de commande
 
@@ -59,18 +65,18 @@ Si vous souhaitez ré-entraîner LLaMAndement, voici les étapes à suivre :
 
 3. Lancez un fine tuning
 
-Il est recommandé de lancer le script d'entraînement dans une image Docker pour assurer un environnement de développement cohérent et éviter les problèmes de dépendances. En utilisant une image Docker, vous pouvez encapsuler toutes les dépendances nécessaires, y compris les versions spécifiques des bibliothèques et des frameworks, ce qui facilite la reproductibilité de l'entraînement du modèle. De plus, l'utilisation d'une image Docker permet de bénéficier de l'isolation et de la portabilité, ce qui facilite le déploiement du modèle sur différentes machines ou environnements.
+Il est recommandé de lancer le script d'entraînement dans une image Docker pour assurer un environnement de développement cohérent et éviter les problèmes de dépendances. En utilisant une image Docker, vous pouvez encapsuler toutes les dépendances nécessaires, y compris les versions spécifiques des bibliothèques et des frameworks, ce qui facilite la reproductibilité de l'entraînement du modèle.
 
 ```bash
 sh train_llamandement_13b.sh
 ```
 
-Vous êtes prêt à ré-entraîner le modèle sur votre propre set de données. Ce processus peut prendre un certain temps, en fonction de la taille de votre ensemble de données et de la puissance de votre matériel.
-
-Concernant le réglage des paramètres pour LORA, voici les parametres:      
-– **Taux d'apprentissage (Learning Rate, LR)**: Nous avons fixé le taux d'apprentissage LORA, σ = 2e-5, plus bas que les taux de fine-tuning typiques pour permettre une adaptation progressive et stable du modèle.    
-– **Profondeur d'adaptation (lora_r)**: Nous avons fixé sa valeur à 64. Ce paramètre spécifie le rang (dimension) de la matrice de faible rang dans LoRA. Dans notre modèle LLAMA 13B, le fine-tuning avec LORA a affecté environ 0,40% des poids (c'est-à-dire 50m de paramètres). Cet équilibre est crucial pour obtenir une adaptabilité à de nouvelles tâches ou à de nouvelles données tout en conservant la conception originale et les connaissances du modèle pré-entraîné.    
-– **Taux de décroissance (Decay Rate)** : Un taux de décroissance de 0,01 a été utilisé pour la régularisation, réduisant le risque de suradaptation à certaines structures de texte législatif.    
-– **LORA Alpha (α)** : Fixé à α = 16, ce paramètre contrôle l'échelle des ajustements LORA. Ce paramètre est essentiel pour affiner l'impact des modifications LoRA sur le modèle, permettant un réglage plus précis des réponses du modèle aux nuances dans les textes législatifs.   
-– **LORA Dropout** : Un taux de dropout de 0,1 a été appliqué aux couches LORA pour prévenir la suradaptation et améliorer les capacités de généralisation.      
-– **Optimiseur et ordonnanceur** : Un ordonnanceur de taux d'apprentissage cosinus avec un warmup ratio de 0,03 a été utilisé pour optimiser le processus d'entraînement.  
+## Citation
+```
+@article{gesnouin2024llamandement,
+  title={LLaMandement: Large Language Models for Summarization of French Legislative Proposals},
+  author={Gesnouin, Joseph and Tannier, Yannis and Da Silva, Christophe Gomes and Tapory, Hatim and Brier, Camille and Simon, Hugo and Rozenberg, Raphael and Woehrel, Hermann and Yakaabi, Mehdi El and Binder, Thomas and others},
+  journal={arXiv preprint arXiv:2401.16182},
+  year={2024}
+}
+```
\ No newline at end of file