L’illusion de la compétence : quand l’intelligence artificielle vide l’éducation de sa substance

C’est une rumeur qui enfle dans les amphithéâtres, une tentation permanente ouverte dans les onglets de navigation, un « secret » que les étudiants se transmettent comme une astuce indispensable, voire providentielle. De plus en plus, les grands modèles de langage s’imposent comme les co-auteurs silencieux de trop de paragraphes « parfaitement corrects ». En surface, la prose est fluide, polie ; sur le fond, elle est souvent insipide, dénuée de poids et de profondeur.

Cette nouvelle réalité pédagogique ne relève pas d’un alarmisme technophobe, mais d’une prudence nécessaire face à des conséquences désormais évidentes pour quiconque corrige des travaux d’étudiants. L’intelligence artificielle générative incite les apprenants à cesser de réfléchir une fois la commande initiale rédigée. On externalise ainsi l’agence intellectuelle des jeunes esprits dont la tâche centrale est pourtant la curiosité et la croissance, et non la productivité.

Le syndrome du chariot élévateur

Certes, ces nouveaux outils offrent une utilité indéniable pour la traduction ou la synthèse. Mais leur valeur dépend intrinsèquement de ce qu’ils remplacent. Lorsqu’ils se substituent au jugement, à la synthèse et à la capacité de tolérer l’incertitude, ils ne soutiennent pas l’apprentissage : ils le creusent de l’intérieur.

La prise de conscience a déjà commencé. De nombreux professeurs expliquent désormais leur retour aux examens oraux et manuscrits en classe. L’une d’elles utilise une métaphore cinglante : utiliser l’IA pour faire le travail intellectuel revient à « apporter un chariot élévateur à la salle de sport alors que l’objectif est de se muscler ».

Cette image du gymnase doit nous marquer. Le danger n’est pas tant la réponse fausse que l’atrophie des facultés. Si l’on normalise le chariot élévateur, on forme des étudiants en situation d’impuissance apprise : le jour où la machine est hors ligne ou payante, ils découvrent qu’ils ne savent plus soulever la moindre charge cognitive.

Le piège du délestage cognitif

La recherche confirme aujourd’hui ce que les enseignants pressentaient : l’utilisation non guidée de l’IA favorise un phénomène de « délestage cognitif ». L’étudiant se transforme en simple superviseur d’une machine à réponses, tuant dans l’œuf tout raisonnement critique et tout engagement réflexif.

Ce constat est d’autant plus alarmant lorsqu’on l’applique aux économies en développement, et particulièrement à l’Afrique, qui se trouve aujourd’hui à un point d’inflexion critique. L’engouement est palpable et les estimations économiques sont colossales, promettant des milliards de dollars et la création de nombreux emplois. On parle de « saut technologique » pour contourner les obstacles éducatifs traditionnels.

Pourtant, nous risquons de confondre le battage médiatique avec la réalité, et le déploiement technologique avec l’impact réel. Dans un contexte où une grande majorité d’enfants en Afrique subsaharienne peine à lire un texte simple à l’âge de 10 ans, l’introduction massive d’une technologie favorisant la paresse cognitive pourrait s’avérer catastrophique. Dans certains pays comme l’Argentine, une part importante des élèves utilise déjà ces outils pour leurs devoirs. Si les enseignants, eux-mêmes parfois peu soutenus et formés, externalisent leur pédagogie à l’IA, nous courons vers une cascade de dépendance cognitive.

Les leçons oubliées de l’ère 3G

L’histoire récente du développement numérique devrait pourtant nous inciter à la retenue. L’analyse de millions de dossiers scolaires à travers le monde a révélé une vérité dérangeante : l’arrivée de la couverture internet 3G a entraîné une baisse significative des résultats aux tests de mathématiques et de lecture.

Les parallèles avec l’enthousiasme actuel pour l’IA sont frappants. À l’époque, on a célébré la connectivité comme une fin en soi. Le résultat ? Les élèves des zones couvertes ont passé plus de temps sur internet, au détriment de leurs études, entraînant une perte d’apprentissage notable. Ces effets négatifs ont frappé le plus durement les pays non riches et les élèves issus de milieux moins favorisés.

Combien de fois les organisations de développement répéteront-elles ce schéma : déployer la technologie, mesurer le taux d’adoption, crier au succès, et découvrir trop tard que l’intervention a nui aux populations qu’elle était censée aider ?

L’importance cruciale de la structure

Le tableau n’est cependant pas entièrement noir. L’efficacité de l’IA dans l’éducation ne réside pas dans l’outil lui-même, mais dans l’intentionnalité de son usage. Elle doit être un partenaire de pensée, et non un substitut.

Des exemples probants existent. Au Brésil, certaines plateformes utilisent le traitement du langage naturel pour analyser les essais des étudiants et fournir un retour structuré sur la grammaire et le style, permettant une amélioration notable des résultats scolaires. De même, en Inde, des initiatives à grande échelle ont montré que l’utilisation structurée d’une technologie adaptée pouvait engendrer des gains d’apprentissage importants, tout en renforçant les compétences des enseignants.

La clé réside dans l’encadrement. L’éducation est un bien public, pas un simple produit. Dans nos salles de classe, qu’elles soient à Paris, Dakar ou Buenos Aires, nous avons le choix : défendre les habitudes intellectuelles nécessaires à une démocratie robuste, ou présider à l’automatisation de la pensée. Si nous choisissons la seconde option, nous ne formerons pas des esprits libres, mais de simples opérateurs de machines, incapables de penser par eux-mêmes le jour où l’écran s’éteindra.