Soft Skills

Quand l'IA nuit à l'apprentissage – et quand elle double les résultats

12 min de lecture

En mars 2025, lors de SXSW EDU, la conseillère en prospective stratégique Sinead Bovell a présenté une conférence sur l’IA et l’avenir de l’éducation. Sans hype, sans panique. Mais avec deux études qui changent la façon dont on devrait penser le rôle de l’IA dans l’apprentissage.

Première étude : un groupe d’étudiants ayant utilisé ChatGPT sans restrictions a obtenu des résultats 17 % inférieurs à ceux du groupe témoin qui travaillait avec un manuel. Deuxième étude : un autre groupe, où l’IA était intégrée dans un système pédagogique entièrement repensé, a surpassé le cours magistral traditionnel du double.

Le même outil. Des résultats opposés. La différence tient à l’approche.

Lire la suite
Quand l'IA nuit à l'apprentissage – et quand elle double les résultats
L'IA ne vous rend pas plus bête. Tout dépend de comment vous l'utilisez
10 min

L'IA ne vous rend pas plus bête. Tout dépend de comment vous l'utilisez

Il y a un an et demi, j’ai publié un billet sur mon blog personnel à propos d’un phénomène que j’observais chez mes collègues et dans mon propre travail : plus on fait confiance à l’IA, moins on se pose la question « est-ce que c’est vraiment juste ? ». Je m’appuyais alors sur une étude de Microsoft qui montrait que la confiance envers l’IA inhibe l’évaluation critique des réponses fournies. L’argument me semblait solide, mais il avait un défaut évident : corrélation, pas causalité.

En février 2026, les chercheurs d’Anthropic Judy Shen et Alex Tamkin ont publié une expérience qui a comblé cette lacune. Un essai randomisé contrôlé. Des données concrètes. Et une conclusion que, je crois, la plupart des gens qui l’ont lue comprennent mal.

Parce que ce n’est pas une histoire sur le fait que l’IA nous rend plus bêtes. C’est une histoire sur la manière dont nous l’utilisons.

Le dilemme de la transparence : faut-il dire au client que le texte a été écrit par une IA ?
18 min

Le dilemme de la transparence : faut-il dire au client que le texte a été écrit par une IA ?

Vous venez de rédiger l’e-mail parfait pour votre client. Le ton est juste, les arguments bien construits, la pointe d’humour parfaitement dosée. Un seul problème : ce n’est pas vous qui l’avez écrit. C’est Claude. Ou ChatGPT. Ou Gemini – peu importe.

Maintenant la question : allez-vous le dire à votre client ?

L’instinct souffle : « Bien sûr que non. Quelle importance, comment c’est écrit, si c’est bien écrit ? ». L’éthique professionnelle murmure : « Il faut être transparent ». Et la science révèle quelque chose d’inattendu : les deux options détruisent la confiance – mais de manières différentes et avec des conséquences distinctes.