5 troubles du comportement dont souffre ChatGPT

Radotage, réponses inventées, rigidité excessive… Et si les bugs de ChatGPT ressemblaient à des troubles du comportement ? Comme le rapporte Cerveau & Psycho, deux chercheurs britanniques ont recensé 32 dysfonctionnements des intelligences artificielles en les comparant, de façon métaphorique, à des troubles cognitifs humains. Décryptage de cinq d’entre eux.
Vous avez peut-être déjà vécu ce moment un peu absurde et quelque peu agaçant : vous corrigez ChatGPT, certain qu’il s’est trompé… et il recommence. Même erreur, même assurance. De quoi se demander s’il radote.
Comme le rapporte le magazine Cerveau & Psycho, deux chercheurs britanniques se sont justement penchés sur ces comportements étranges des intelligences artificielles (IA). Leur idée : analyser certains dysfonctionnements de l’IA en les comparant -métaphoriquement – à des troubles troubles cognitifs et psychiatriques humains.
Évidemment, l’IA n’a ni cerveau ni émotions. Mais ces comparaisons permettent de mieux comprendre comment ces systèmes peuvent déraper, afin de les rendre plus fiables. En sort, un guide recensant 32 types de comportements atypiques. On vous en explique cinq.
Des raisonnements en boucle comparables aux troubles obsessionnels
Parmi les exemples cités figurent les troubles obsessionnels computationnels. Le parallèle est fait avec les troubles obsessionnels-compulsifs (TOC) chez l’humain : ces pensées ou comportements répétitifs difficiles à contrôler comme vérifier vingt fois une porte fermée, répéter mentalement une phrase. Côté IA, cela se traduit par des réponses qui tournent en boucle : reformulations infinies, excuses répétées ou incapacité à sortir d’un raisonnement erroné.

Une perte du contexte qui rappelle certains troubles neurologiques
Les chercheurs évoquent aussi un phénomène qu’ils comparent à l’apraxie chez l’humain, un trouble neurologique dans lequel une personne ne parvient plus à exécuter correctement un geste pourtant maîtrisé, parce qu’elle ne l’adapte pas au bon contexte. Dans le cas de l’intelligence artificielle, cela se traduit par une « décontextualisation » : elle applique une règle de manière mécanique, sans tenir compte de la situation précise. En somme, la réponse est techniquement correcte, mais inadaptée à la demande réelle.
Des affirmations inventées mais parfaitement plausibles
Autre phénomène bien connu : l’IA peut produire une affirmation fausse tout en paraissant très convaincante. Chez l’humain, on parlerait de faux souvenirs ou de reconstructions involontaires. La machine, elle, comble simplement un vide statistique, faute d’information fiable, elle fabrique la réponse la plus probable.
Des biais hérités de leurs données d’apprentissage
Comme nous sommes influencés par notre environnement, les IA héritent des biais présents dans leurs données d’entraînement. Si celles-ci contiennent des stéréotypes ou des informations discutables, elles risquent de les reproduire.
Une rigidité excessive dans l’application des règles
Autre travers : appliquer une règle sans nuance. Chez l’humain, cela évoquerait une difficulté à adapter son comportement à la situation. Chez l’IA, cela donne des réponses exactes sur le papier mais décalées dans la pratique.
Autrice : Alison Terrien
Cet article a été adapté pour la Suisse après avoir initialement été publié sur elle.fr. Retrouvez tous les autres articles de cette édition sur le site web officiel.