J’ai interrogé Claude, l’IA
d’Anthropic.
Ma question (un peu provocante) :
« Des perroquets probabilistes gavés de productions humaines et qui les
régurgitent sans en comprendre le sens." Je lui ai demandé ce qu’il pensait
de cette définition.
Sa réponse : Les «
perroquets probabilistes » : une métaphore séduisante mais incomplète. Cette
formule — tirée du célèbre article "On the Dangers of Stochastic
Parrots" (Bender, Gebru et al., 2021) — a le mérite d'être percutante.
Mais elle mérite d'être décortiquée.
Ce qu'elle capture justement
La nature statistique du
processus. Les LLM apprennent effectivement des distributions de probabilités
sur des séquences de tokens. Il n'y a pas de « pensée » au sens
phénoménologique du terme — pas d'intentionnalité au sens husserlien.
L'ancrage dans la production
humaine. Ces modèles n'inventent rien ex nihilo : ils sont entièrement
tributaires des textes humains qui les ont nourris. Leurs « biais » sont les
biais humains amplifiés et cristallisés.
L'absence de compréhension
incarnée. Un modèle ne sait pas ce qu'est la douleur, la faim, ou le rouge. Il
manipule des symboles sans l'expérience sensible qui, pour beaucoup de
philosophes, fonde le sens.
Le perroquet, lui, ne généralise
pas. Il répète des séquences fixes. Un LLM, en revanche, résout des problèmes
nouveaux, traduit entre langues qu'il n'a jamais vues combinées, raisonne par
analogie. C'est qualitativement différent de la répétition.
La question du « sens » est
philosophiquement non triviale. Qu'est-ce que comprendre ? Si c'est manipuler
des symboles de façon cohérente, contextuelle et productive — les LLM le font.
Si c'est avoir une vie intérieure subjective, la question reste ouverte même
pour d'autres humains (problème des qualia, argument de la chambre chinoise de
Searle).
La métaphore occulte les
capacités émergentes. Raisonnement formel, détection de contradictions,
transfert entre domaines… Ces propriétés ne s'expliquent pas simplement par de
la « régurgitation ».
« Gavés » implique une passivité. Mais l'architecture
transformer, l'attention, le fine-tuning, le RLHF — c'est une ingénierie du
traitement, pas du stockage brut.
(à suivre)
