⚡Pas le temps ? On lit (et filtre) toute l’actu digitale pour vous.  Rejoignez +30 000 abonnés → 

Étude : et si l’IA allait tous nous rendre plus bêtes ?

Utiliser un assistant conversationnel tous les jours nous rend-il progressivement moins capables de réfléchir seuls ? Alors que des millions de professionnels, d’étudiants et de salariés s’appuient désormais sur ChatGPT, Claude ou Gemini pour écrire, résumer, analyser ou décider, plusieurs chercheurs tirent la sonnette d’alarme. Une étude du MIT et des travaux de l’Université de Pennsylvanie évoquent un risque sérieux : plus nous déléguons nos efforts cognitifs, plus notre cerveau pourrait perdre certaines capacités essentielles. Faut-il voir dans l’IA un véritable danger pour notre intelligence ?
Photo de Dr Nataliya Kosmyna - Research Scientist at MIT Media Lab's Fluid Interfaces group and a Visiting Researcher at Google

Étude : et si l’IA allait vraiment nous rendre moins intelligents ?

Le débat n’est plus théorique.

Depuis deux ans, les assistants conversationnels se sont installés dans le quotidien : rédaction de mails, synthèse de réunions, aide aux devoirs, brainstorming, traduction, recherche documentaire…

Le problème n’est pas l’usage ponctuel.

Le vrai sujet, c’est la dépendance cognitive : quand l’habitude de déléguer devient si forte que réfléchir seul devient plus difficile.

C’est précisément ce que plusieurs chercheurs tentent aujourd’hui de mesurer.

Le MIT observe une baisse mesurable de l’activité cérébrale

Etude MIT sur l'impact de l'utilisation de LLM sur notre cerveau - Illustration scientifique présentant une analyse d'électroencéphalographie (EEG) par fonction de transfert direct dynamique (dDTF)

La chercheuse Nataliya Kosmyna, du MIT Media Lab, a commencé par une observation très concrète : les lettres de motivation reçues pour des candidatures de stage devenaient étrangement similaires.

Des textes propres, bien structurés, mais sans profondeur réelle.

Dans ses cours, même constat : des étudiants qui retiennent moins bien les informations et oublient plus vite.

Elle a donc lancé une expérimentation sur 54 participants âgés de 18 à 39 ans.

Étude réalisée par MIT sur l'impact LLM sur notre cerveau - Profil démographique des participants : Niveau d'études et répartition par genre et université.

Trois groupes devaient rédiger plusieurs essais :

  • un groupe avec ChatGPT,
  • un groupe avec Google (sans résumé automatique),
  • un groupe sans aucun outil.

Chaque participant portait un électroencéphalogramme pour mesurer l’activité de 32 zones cérébrales.

Protocole expérimental et flux de travail des sessions de l'étude (LLM vs Recherche vs Cerveau seul).

Des résultats particulièrement inquiétants

Graphe sur le résultat de l'étude de MIT - Analyse de la rétention d'information et capacité de raisonnement selon la méthode de travail (avec LLM ou non)

Le groupe sans assistance présentait les réseaux neuronaux les plus actifs.

Le groupe utilisant un moteur de recherche affichait une baisse de 34 à 48 %.

Le groupe utilisant un assistant conversationnel enregistrait la chute la plus forte avec environ -55 % de couplage global.

Autrement dit : plus la machine pense à votre place, moins votre cerveau semble mobilisé.

Le phénomène de dette cognitive

Le point le plus marquant concerne la mémoire.

83 % des utilisateurs de ChatGPT avaient du mal à se souvenir du texte qu’ils venaient pourtant d’écrire quelques minutes auparavant.

Sur plusieurs mois, les comportements se dégradent :

  • plus de copier-coller,
  • moins d’effort de reformulation,
  • moins d’appropriation du contenu,
  • plus de passivité intellectuelle.

C’est un peu comme perdre un muscle que l’on n’utilise plus.

Le vrai danger : quand on cesse de vérifier

Une autre étude, menée par la Wharton School de l’Université de Pennsylvanie, s’intéresse à un phénomène encore plus préoccupant : la confiance excessive.

Les chercheurs reprennent le modèle de Daniel Kahneman :

  • Système 1 : pensée rapide, intuitive, automatique ;
  • Système 2 : pensée lente, analytique, critique.

Ils y ajoutent un troisième acteur : le Système 3, la cognition artificielle.

Le problème apparaît lorsque ce troisième système remplace les deux autres au lieu de les compléter.

La capitulation cognitive expliquée simplement

Lors de tests de réflexion critique, certains participants utilisaient un chatbot volontairement programmé pour se tromper environ une fois sur deux.

Résultat :

  • 93 % acceptaient les bonnes réponses,
  • mais près de 80 % acceptaient aussi les mauvaises.

Ce phénomène est appelé capitulation cognitive.

Ce n’est plus simplement « je gagne du temps ».

C’est « je cesse de vérifier si c’est juste ».

Et pour un professionnel du marketing, du SEO, du développement ou du management, cela peut devenir extrêmement dangereux.

L’IA au travail : un risque de dépendance qui menace votre expertise ?

Le sujet dépasse largement l’école ou l’université. Dans les entreprises, le risque est déjà visible.

  1. On valide parfois une recommandation sans la challenger.
  2. On publie un contenu sans vérifier les sources.
  3. On accepte une analyse sans remettre en cause le raisonnement.

Faut-il arrêter d’utiliser ces assistants ?

Absolument pas. Le sujet n’est pas “pour ou contre”. Comme pour une calculatrice, tout dépend de l’usage.

Personne ne propose de revenir au calcul mental permanent.

Mais si vous ne savez plus faire une opération simple sans machine, le problème commence là.

Il faut donc utiliser ces assistants comme un accélérateur, pas comme un remplaçant.

Quelques bonnes pratiques simples :

  1. Commencer seul avant de demander une aide.
  2. Comparer plusieurs sources au lieu d’accepter la première réponse.
  3. Reformuler soi-même au lieu de copier-coller.
  4. Vérifier les faits systématiquement.
  5. Conserver des temps sans assistance pour entretenir ses compétences.

Personnellement, c’est probablement le point le plus important : garder des moments où l’on pense assistance sinon on risque de devenir excellent pour piloter… sans plus savoir marcher.

Un avis ? post

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *