diff --git a/README.md b/README.md index 4e86a9844459aca71210bce98b1ace22647f501e..75dbb350aa6768c2eda5839f82ee1ab81e956618 100644 --- a/README.md +++ b/README.md @@ -8,11 +8,11 @@ LLaMandement est un grand modèle de langage (LLM) à l'état de l'art, soumis a ## Détails du Modèle -- **Développé par:** [DGFIP](https://www.impots.gouv.fr/presentation-de-la-dgfip-overview-dgfip) : -- **Type de modèle:** An auto-regressive language model based on the transformer architecture +- **Développé par:** [Direction Générale des Finances Publiques](https://www.impots.gouv.fr/presentation-de-la-dgfip-overview-dgfip) : +- **Type de modèle:** Un modèle de langue auto-régressif basé sur l'architecture transformers - **Licence:** Llama 2 Community License Agreement - **Basé sur le modèle:** [Llama 2](https://arxiv.org/abs/2307.09288) -- **Papier:** [Technical Report](https://arxiv.org/abs/2401.16182) +- **Papier:** [Rapport technique](https://arxiv.org/abs/2401.16182) ## Installation @@ -54,8 +54,8 @@ Cette commande vous permet de démarrer le modèle et de commencer à l'interrog ## Re-Entraîner LLaMAndement -Les données d'entraînement qui ont servi à apprendre à LLamadanement se trouvent dans ./data/fine_tuning_data_dila_v4.json. -Pour plus d'informations sur la composition du dataset, voir la section 3.3 dans l'article suivant : xxxx +Les données d'entraînement qui ont servi à apprendre à LLamandement se trouvent dans ./data/fine_tuning_data_dila_v4.json. +Pour plus d'informations sur la composition du dataset, voir la section 3.3 du [rapport technique](https://arxiv.org/abs/2401.16182) Si vous souhaitez ré-entraîner LLaMAndement, voici les étapes à suivre :