From f00e935ac498ebaac629d6970f23f4a9a6c4d6f2 Mon Sep 17 00:00:00 2001 From: "conrad.thiounn@travail.gouv.fr" Date: Tue, 2 Jul 2024 13:00:57 +0200 Subject: [PATCH] add index for landing page --- index.qmd | 58 +++++++++++++++++++++++++++++++++++++++++++++++++++++++ 1 file changed, 58 insertions(+) create mode 100644 index.qmd diff --git a/index.qmd b/index.qmd new file mode 100644 index 0000000..5673c11 --- /dev/null +++ b/index.qmd @@ -0,0 +1,58 @@ +# Projet KALLM : Kit avancé LLM + + + +Ce projet fait partie de la [troisième saison du Programme 10%](https://10pct.datascience.etalab.studio/les-actualites/saison-3-programme-10/), co-porté par la DINUM en association étroite avec l'Insee. + +## Préambule + +Mistral, GPT4, Claude, ALBERT, CroissantLLM... Vous ne vous y retrouvez plus parmi tous ces modèles larges de language (LLM)? Ce guide permet de se poser les bonnes questions et de pouvoir répondre à un besoin d'analyse textuelle avec une solution adaptée. Ce guide est là pour vous aider du début jusqu'à la fin, de la conception du modèle après problématisation à la mise en production. + +**Objectif : Comprendre son besoin et y répondre avec une solution LLM adaptée** + +## Etats des lieux des LLM + +Les LLM sont des modèles de langage de grande taille, apparus vers 2018, ayant révolutionné le domaine du traitement automatique du langage naturel. +Les LLMS se caractérisent par une architecture de type "transformers" permettant un traitement parallèle et contextuel du langage, un entraînement sur de très vastes corpus de données textuelles, allant de millions à des milliards de paramètres, et des capacités impressionnantes pour accomplir une grande variété de tâches linguistiques comme la génération de texte, la traduction, l'analyse de sentiment. + +Plus de 3000 LLM ont été entraînés et publiés sur des plateformes de partage de modèle comme [HuggingFace](https://huggingface.co/spaces/lmsys/chatbot-arena-leaderboard), dont plus d'une cinquaine s'affronte régulièrement entre eux pour se démarquer sur différentes tâches dans une [arène dédiée](https://huggingface.co/spaces/lmsys/chatbot-arena-leaderboard). + +Il est aujourd'hui difficile de savoir quel LLM est adapté pour son besoin spécifique et quelle infrastructure est nécessaire pour utiliser les différents LLM. Ce guide tente donc d'expliciter les raisonnements, les questions à se poser et des pistes de réponse quant aux choix et à la mise en oeuvre des LLM. + + +## Ce que couvre ce guide + +* l'infrastructure minimale pour faire tourner un LLM +* benchmarking des "principaux" LLM +* exemple d'utilisation dans un cas simple (cas d'utilisation dit "fil rouge") sous forme de tutoriel +* finetuner un modèle LLM +* quantizer un modèle LLM +* Evaluer un LLM +* mettre en production un modèle LLM +* une bibliographie consise et non exhaustive +* d'autres exemples plus complexes de cas d'utilisation dans l'administration +* une approximation du coût environnemental et financier des différents LLM + +## Ce que ne couvre pas (encore) ce guide + +* les fondements théoriques de l'optimisation +* cas spécifique d'une administration +* comment débiaiser un LLM + +## Membres + +| Membre | Administration | +| ------ | -------------- | +|Conrad THIOUNN| Dares - Ministère du Travail | +| Johnny PLATON | Santé publique France | +| Thibault DUROUCHOUX | | +| Katia JODOGNE-DEL LITTO | IGF - Ministère de l'Economie et des Finances | +| Faheem BEG | | +| Camille ANDRÉ| | +| Camille BRIER | DTNum - DGFiP | +| Daphné PERTSEKOS | ANFSI - Ministère de l'intérieur| +| Zhanna SANTYBAYEVA | DGOS - Ministère du travail, de la santé et des solidarités| + + ## Épilogue + + Une remarque ? Une question ? Vous pouvez nous contacter sur le salon [Tchap du Programme 10%](!hMSAqEDoNuxyPzFiLH:agent.dinum.tchap.gouv.fr) ou ...