G-0C9MFWP390 Le Carnet de Joe Legloseur: intelligence
Affichage des articles dont le libellé est intelligence. Afficher tous les articles
Affichage des articles dont le libellé est intelligence. Afficher tous les articles

lundi 4 mai 2026

Concersation avec Claude (1)


 

J’ai interrogé Claude, l’IA d’Anthropic. 

Ma question (un peu provocante) : « Des perroquets probabilistes gavés de productions humaines et qui les régurgitent sans en comprendre le sens." Je lui ai demandé ce qu’il pensait de cette définition.

Sa réponse : Les « perroquets probabilistes » : une métaphore séduisante mais incomplète. Cette formule — tirée du célèbre article "On the Dangers of Stochastic Parrots" (Bender, Gebru et al., 2021) — a le mérite d'être percutante. Mais elle mérite d'être décortiquée.

Ce qu'elle capture justement

La nature statistique du processus. Les LLM apprennent effectivement des distributions de probabilités sur des séquences de tokens. Il n'y a pas de « pensée » au sens phénoménologique du terme — pas d'intentionnalité au sens husserlien.

L'ancrage dans la production humaine. Ces modèles n'inventent rien ex nihilo : ils sont entièrement tributaires des textes humains qui les ont nourris. Leurs « biais » sont les biais humains amplifiés et cristallisés.

L'absence de compréhension incarnée. Un modèle ne sait pas ce qu'est la douleur, la faim, ou le rouge. Il manipule des symboles sans l'expérience sensible qui, pour beaucoup de philosophes, fonde le sens.

 Ce qu'elle simplifie ou rate

Le perroquet, lui, ne généralise pas. Il répète des séquences fixes. Un LLM, en revanche, résout des problèmes nouveaux, traduit entre langues qu'il n'a jamais vues combinées, raisonne par analogie. C'est qualitativement différent de la répétition.

La question du « sens » est philosophiquement non triviale. Qu'est-ce que comprendre ? Si c'est manipuler des symboles de façon cohérente, contextuelle et productive — les LLM le font. Si c'est avoir une vie intérieure subjective, la question reste ouverte même pour d'autres humains (problème des qualia, argument de la chambre chinoise de Searle).

La métaphore occulte les capacités émergentes. Raisonnement formel, détection de contradictions, transfert entre domaines… Ces propriétés ne s'expliquent pas simplement par de la « régurgitation ».

« Gavés » implique une passivité. Mais l'architecture transformer, l'attention, le fine-tuning, le RLHF — c'est une ingénierie du traitement, pas du stockage brut.

(à suivre)