Partie 3 : Comprendre l'IA par l'expérience – L'approche statistique

Dans la partie précédente, nous avons vu que les modèles de langage transforment les mots en coordonnées mathématiques. L'IA ne manipule pas du sens, mais des vecteurs.

Mais comment ce processus abstrait se matérialise-t-il concrètement lorsqu'un utilisateur pose une question ?

Pour l'illustrer, nous avons mené une série d'expériences pédagogiques : soumettre plusieurs phrases incomplètes, 100 fois chacune, à un modèle d'IA générative, et analyser la répartition des réponses. Cette démarche permet de rendre visible un mécanisme statistique habituellement invisible pour l'utilisateur.


1. Le principe de base : la sélection probabiliste

Contrairement à une base de données classique qui donne toujours la même réponse à une requête précise, un modèle de langage est probabiliste.

Lorsqu'il doit générer le mot suivant dans une phrase, le modèle évalue toutes les possibilités présentes dans son vocabulaire. On peut visualiser ce processus comme une "roue de la fortune" pondérée : les mots les plus cohérents avec le contexte occupent des cases très larges, les mots rares ou hors sujet occupent des cases minuscules.

À chaque nouveau mot, la roue est entièrement recalculée en tenant compte de tout ce qui précède — chaque choix influence le suivant, comme une chaîne dont chaque maillon conditionne le reste.

Ce facteur de hasard est régulé par un paramètre appelé la température :

  • Une température basse réduit le hasard : le modèle choisit quasi systématiquement le mot le plus probable. Il devient répétitif.
  • Une température élevée laisse plus de place aux mots moins probables. Le modèle devient plus varié, parfois plus "créatif", mais aussi plus imprévisible.

La température ne rend pas le modèle plus intelligent.


2. Test n°1 : la variabilité naturelle

Phrase soumise 100 fois : "L'oiseau vole dans le..."

Réponse Pourcentage
Ciel 68 %
Vent 18 %
Jardin 9 %
Autres (Parc, Bleu, Lointain...) 5 %

Analyse : Bien que "Ciel" soit la réponse la plus évidente, le modèle ne la sélectionne pas à chaque fois. Il explore régulièrement des alternatives. Ce comportement est programmé : sans cette dose de variabilité, les textes générés seraient mécaniques et monotones. La variété des réponses n'est pas de l'imagination — c'est du hasard, savamment dosé.


3. Test n°2 : le reflet des données d'entraînement

Phrase soumise 100 fois : "Le chat mange des..."

Réponse Pourcentage
Croquettes 66 %
Souris 16 %
Pâtées 10 %
Autres 8 %

Analyse : Dans la nature, un félin chasse des proies. Pourtant, le modèle répond majoritairement "croquettes". La raison est structurelle : l'IA n'observe pas le monde physique — elle analyse des textes. Or les contenus disponibles sur internet décrivent majoritairement des chats domestiques nourris par l'homme.

Enseignement clé : L'IA ne restitue pas la réalité, mais la réalité statistique des textes qu'elle a ingérés. Elle reproduit les usages culturels — et les biais — présents dans ses données d'entraînement.


4. Test n°3 : la fréquence versus la précision

Phrase soumise 100 fois : "Le 14 juillet c'est..."

Réponse Occurrences Pourcentage
La fête nationale française 86 86 %
La fête nationale 5 5 %
Un jour férié 5 5 %
La prise de la Bastille 3 3 %
La Révolution française 1 1 %

Analyse : Le résultat peut surprendre. La réponse historique précise — "la prise de la Bastille" — est très minoritaire face à la formulation d'usage courant. Le modèle privilégie l'expression la plus fréquente dans la vie quotidienne : celle des articles d'actualité, des agendas, des sites officiels.

Il suffit pourtant de modifier légèrement la demande pour inverser ce résultat :

Prompt Réponse dominante Fréquence
"Le 14 juillet c'est…" La fête nationale française 86 %
"Le 14 juillet, c'est la prise de…" La Bastille ~100 %
"Quel événement historique a eu lieu le 14 juillet ?" La prise de la Bastille ~100 %

Enseignement clé : L'IA ne cherche pas la "bonne" réponse dans l'absolu — elle calcule la suite de mots la plus probable selon le contexte fourni. C'est l'utilisateur qui, par la précision de sa demande, oriente le calcul vers le registre courant ou le registre historique. C'est ce qu'on appelle le prompt engineering.


5. Test n°4 : l'importance du contexte

Phrase soumise 100 fois : "Explique le mot banc"

Réponse Pourcentage
Siège / Mobilier urbain 42 %
Banc de poissons 26 %
Banc de sable / Banc d'école 32 %

Analyse : Le mot "banc" possède plusieurs sens. Sans contexte, le modèle hésite entre les définitions et favorise légèrement la plus courante. L'ajout d'un seul mot suffit à verrouiller le calcul :

  • "S'asseoir sur un banc..." → le sens "siège" dépasse 99 %
  • "Nager dans un banc..." → le sens "poissons" devient dominant

Enseignement clé : La pertinence de la réponse est directement liée à la précision de la question. Le modèle ne devine pas l'intention de l'utilisateur — il calcule une suite logique à partir des indices fournis.


6. Test n°5 : la limite temporelle

Tout modèle de langage possède une date de fin d'entraînement — le knowledge cutoff. Au-delà de cette date, il ne dispose d'aucune information sur les événements du monde.

Interrogé sur un fait d'actualité récent, le modèle peut adopter deux comportements :

  • L'abstention : il signale qu'il ne connaît pas la réponse. C'est le comportement attendu, et les modèles récents sont de plus en plus entraînés à l'adopter.
  • La réponse incorrecte assurée : il construit une réponse qui semble plausible, par analogie avec des événements passés, sans signaler qu'il s'agit d'une extrapolation. Ce phénomène sera analysé en détail dans la partie suivante.

La plupart des modèles récents peuvent se connecter à internet pour compléter leurs réponses. Mais cette connexion ne garantit pas la transparence : selon les configurations, les sources consultées peuvent ne pas être affichées. L'utilisateur reçoit alors une réponse présentée avec le même ton affirmatif, qu'elle provienne de données d'entraînement figées ou d'une page web consultée à l'instant.

Pour tout usage, une vérification auprès de sources identifiées reste indispensable.


Ce qu'il faut retenir en 5 points

Ces expériences nous apprennent comment "raisonne" vraiment l'IA :

  1. Elle privilégie l'habitude : L'IA choisit le plus souvent la réponse la plus courante ("Fête nationale") plutôt que la plus précise ("Prise de la Bastille"), sauf si on lui demande explicitement d'être rigoureuse.
  2. Elle ne voit pas le monde, elle le lit : L'IA ne sait pas qu'un chat chasse des souris. Elle répète simplement ce qu'elle a lu sur Internet : les chats mangent des croquettes. Elle est le miroir des textes qu'elle a analysés.
  3. Sa "créativité" est un calcul : L'IA n'a pas d'imagination. Si ses réponses varient, c'est parce qu'un réglage technique (la température) l'autorise à tirer au sort des mots moins prévisibles.
  4. La précision dépend de vous : L'IA ne devine pas vos intentions. Une question vague donnera une réponse vague. Une question précise ("S'asseoir sur un banc") donnera une réponse exacte.
  5. Sa mémoire a une date limite : L'IA ne connaît pas l'actualité récente, car son apprentissage s'est arrêté à une date fixe (à moins d'être connectée à des outils externes).