Qu'est-ce qu'un LLM
Que fait un modèle de langage quand vous lui parlez, et pourquoi se trompe-t-il parfois avec autant d'assurance ?
Après ce module, vous saurez expliquer en termes simples comment fonctionne un modèle de langage, ce qu'il fait bien et où il se trompe. Aucun prérequis : ce module part de zéro.
Imaginez un collègue qui a lu des millions de documents : emails professionnels, articles, rapports, livres, forums, code informatique. Ce collègue n'a pas vécu ces expériences, mais il a vu tellement de textes qu'il sait quel mot suit logiquement un autre dans à peu près n'importe quel contexte. Quand vous lui posez une question, il ne va pas chercher une réponse dans une base de données. Il construit sa réponse mot par mot, en choisissant à chaque étape le mot le plus probable vu le contexte.
Astuce. Pour toucher cette mécanique du doigt, commencez une phrase dans un assistant et observez comment il la complète. Essayez « Le prix de notre prestation inclut » puis « Le prix de notre prestation exclut ». Le modèle adapte toute la suite en fonction d'un seul mot. C'est la prédiction en action.
Pour acquérir cette capacité, un LLM est entraîné sur des quantités massives de texte : milliards de pages web, livres, articles scientifiques. Pendant l'entraînement, on lui cache un mot dans une phrase et on lui demande de le deviner. Il se trompe, on corrige, il ajuste ses paramètres internes. Ce processus se répète des milliards de fois. Le résultat : un réseau de connexions mathématiques qui encode des patterns linguistiques. Quand vous écrivez « Le siège social de notre entreprise se trouve à », le modèle ne consulte pas un annuaire. Il génère une suite plausible basée sur les millions de phrases similaires vues pendant son entraînement.
Imaginons Thomas, artisan menuisier, qui demande à un LLM le prix du chêne massif au mètre cube en Belgique. Le modèle répond avec un chiffre précis et un ton assuré. Thomas vérifie auprès de son fournisseur : le prix indiqué est celui de 2022, avec un écart de 35 %. Le modèle n'a pas menti. Il a reproduit le chiffre vu le plus souvent pendant son entraînement. Pour des données tarifaires, un appel à votre fournisseur reste imbattable.
C'est la distinction la plus importante de ce cours : générer n'est pas comprendre. Un LLM produit du texte convaincant, mais il ne sait pas ce qu'il écrit. La différence est subtile quand le résultat est bon, elle devient évidente quand le modèle se trompe. Un comptable qui fait une erreur sait qu'il s'est trompé quand on lui montre les chiffres. Un LLM qui invente un fait ne sait pas qu'il l'a inventé, parce qu'il n'a aucune notion de vrai ou faux. Il produit ce qui est statistiquement vraisemblable, pas ce qui est vérifié.
Piège classique. Le ton assuré du modèle n'est pas un indicateur de fiabilité. Un LLM qui écrit « selon l'étude de McKinsey 2024... » peut très bien avoir inventé cette étude. Plus la réponse est fluide et détaillée, plus on a tendance à lui faire confiance. C'est exactement là que le piège se referme.
Quatre limites structurent l'usage quotidien. Les hallucinations : le modèle invente des informations avec aplomb. Citation d'article inexistant, chiffre faux donné avec assurance, attribution à la mauvaise personne. Ce n'est pas un bug rare, c'est une conséquence directe du fonctionnement par probabilité. La fenêtre de contexte : le modèle ne lit pas tout, il a une quantité maximale de texte traitable en une conversation. Au-delà, il oublie le début. La connaissance figée : entraîné jusqu'à une date précise, il ne sait rien de ce qui suit. Sur un événement récent, il devine ou signale son ignorance. L'absence de raisonnement réel : il simule la logique en reproduisant des schémas vus. Pour les problèmes simples ça fonctionne, pour un vrai raisonnement ou du bon sens, il peut produire des absurdités avec une confiance inébranlable.
| Limite | Impact concret | Comment vous en protéger |
|---|---|---|
| Hallucinations | Faits inventés, sources fictives, chiffres faux | Vérifier chaque fait, nom et chiffre avant usage |
| Fenêtre de contexte | Oubli du début d'une longue conversation | Rappeler les points clés, découper les échanges longs |
| Connaissance figée | Données obsolètes, actualité inconnue | Utiliser la recherche web intégrée, vérifier les infos datées |
| Pas de raisonnement réel | Erreurs logiques, calculs faux, conclusions absurdes | Décomposer les problèmes, vérifier la logique |
Repérez.
Trois activités courtes de lecture critique. Pas de prompt à écrire : on observe, on repère, on choisit. Ce cours est le niveau 1 : la pratique d'écriture arrive au cours Votre assistant IA.
Réussi si. Vous reliez chaque symptôme de sortie à la bonne limite du modèle, et vous distinguez ce que le modèle sait faire de ce qu'il simule.
Activité 1. Un LLM vous répond avec un ton très assuré et des détails précis sur un sujet de niche que vous connaissez mal. Qu'est-ce que cela signifie ?
Activité 2. Reliez chaque problème observé à la limite du modèle qui l'explique.
- « Le modèle cite une étude qui n'existe pas. »
- « Au bout de 40 minutes de discussion, il oublie ce qu'on avait décidé au début. »
- « Il n'a pas entendu parler du nouveau règlement européen de 2025. »
- « Pour un calcul en plusieurs étapes, il se trompe avec aplomb. »
Quelle correspondance est correcte ?
Activité 3. Un LLM se souvient de toutes vos conversations passées, la fenêtre de contexte lui sert juste à traiter plus de texte d'un coup.
Ce que vous avez pris.
Un LLM prédit le mot suivant à partir de patterns statistiques. Il génère du texte convaincant mais ne comprend pas ce qu'il écrit. Quatre limites structurent son usage : hallucinations, fenêtre de contexte, connaissance figée, absence de raisonnement réel. Le ton assuré n'est pas un indicateur de fiabilité. La règle opérationnelle tient en une phrase : chaque fait, chiffre et source cités par un modèle doivent être vérifiés.
Et la suite. Savoir ce qu'est un LLM vous prépare à distinguer les outils entre eux. Le module suivant, Le paysage des outils, compare ChatGPT, Claude, Gemini, Copilot et Mistral, et vous aide à choisir celui qui colle à votre usage.