IA en Entreprise

99 % de la qualité pour 1,4 % du prix : ce qui ne va pas sur le marché des modèles IA

9 min de lecture

La plupart des managers choisissent un modèle IA de la même manière : ils prennent le plus cher disponible. La logique est limpide – plus cher, c’est mieux. C’est ainsi que fonctionnait le logiciel d’entreprise depuis vingt ans.

Le marché des modèles IA en 2026 fonctionne différemment. Le coût d’une requête varie de 0,0001 $ à 0,17 $ – trois ordres de grandeur. Et la différence réelle de qualité entre les dix meilleurs modèles ? 0,24 point sur une échelle de cinq. Pendant ce temps, Wharton / GBK Collective constate qu’un tiers des projets IA en entreprise ne dépasse pas le stade du pilote. Et Epoch AI montre que seuls 5,6 % des utilisateurs exploitent réellement l’IA en profondeur.

La question n’est peut-être pas de savoir quel modèle est le meilleur, mais plutôt si payer le prix fort pour un modèle premium produit un résultat proportionnellement meilleur pour les tâches managériales courantes.

Nous avons vérifié. La réponse s’est avérée plus brutale que prévu.

Lire la suite
99 % de la qualité pour 1,4 % du prix : ce qui ne va pas sur le marché des modèles IA
62 % des utilisateurs de l'IA ne l'appliquent qu'à 1–2 tâches : les données Epoch AI / Ipsos (mars 2026)
11 min

62 % des utilisateurs de l'IA ne l'appliquent qu'à 1–2 tâches : les données Epoch AI / Ipsos (mars 2026)

En novembre 2025, les données de Stanford ont révélé un fait inattendu : les Américains utilisent l’IA plus souvent à la maison qu’au travail. Chez mysummit.school, nous avons décortiqué cela dans un article dédié – et le constat était clair : l’IA professionnelle courait encore derrière l’IA personnelle.

Quatre mois ont passé. Epoch AI, en collaboration avec Ipsos, a publié une nouvelle étude – et la photo a changé.

L'agent plutôt que le chat : analyser ses données sans copier-coller
12 min

L'agent plutôt que le chat : analyser ses données sans copier-coller

Vous avez trois fichiers de données : un entonnoir d’activation, les résultats d’un test A/B et les tickets du support. La question : pourquoi l’onboarding cale-t-il ? Vous ouvrez ChatGPT, vous chargez le premier fichier, vous posez votre question. Réponse. Vous chargez le deuxième. ChatGPT vous demande : pouvez-vous me rappeler le contexte ? Vous chargez le troisième. Le contexte du premier fichier est déjà évincé.

Quarante minutes plus tard, vous avez trois conversations séparées, et aucune ne répond à la question de départ. Parce que la question était unique, mais les données, elles, étaient à trois endroits.

Ce n’est pas un problème de ChatGPT. C’est un problème d’approche.

L'IA ne vous rend pas plus bête. Tout dépend de comment vous l'utilisez
10 min

L'IA ne vous rend pas plus bête. Tout dépend de comment vous l'utilisez

Il y a un an et demi, j’ai publié un billet sur mon blog personnel à propos d’un phénomène que j’observais chez mes collègues et dans mon propre travail : plus on fait confiance à l’IA, moins on se pose la question « est-ce que c’est vraiment juste ? ». Je m’appuyais alors sur une étude de Microsoft qui montrait que la confiance envers l’IA inhibe l’évaluation critique des réponses fournies. L’argument me semblait solide, mais il avait un défaut évident : corrélation, pas causalité.

En février 2026, les chercheurs d’Anthropic Judy Shen et Alex Tamkin ont publié une expérience qui a comblé cette lacune. Un essai randomisé contrôlé. Des données concrètes. Et une conclusion que, je crois, la plupart des gens qui l’ont lue comprennent mal.

Parce que ce n’est pas une histoire sur le fait que l’IA nous rend plus bêtes. C’est une histoire sur la manière dont nous l’utilisons.

9 questions à vous poser : utilisez-vous l'IA ou est-ce l'IA qui vous utilise ?
13 min

9 questions à vous poser : utilisez-vous l'IA ou est-ce l'IA qui vous utilise ?

Récemment, je préparais une proposition commerciale pour un nouveau client. Le montant était inhabituel, les conditions aussi. Mon instinct me disait : mets X, tu connais ce marché. Mais j’ai décidé de « vérifier » avec Claude. Le modèle m’a renvoyé une réponse argumentée avec un autre chiffre – 15 % en dessous de mon estimation. C’était convaincant. J’ai changé le chiffre.

Une semaine plus tard, le client a signé sans négocier. Et au lieu d’être satisfait, j’ai ressenti de l’agacement : et si mon chiffre initial aurait aussi été accepté ? Je ne le saurai jamais – parce qu’au moment de la décision, j’ai étouffé mon propre jugement au profit d’une réponse « statistiquement fondée » de l’algorithme.

C’est exactement le schéma que les chercheurs d’Anthropic appellent Disempowerment – la perte de contrôle. Pas dramatique, pas évidente. Juste le remplacement silencieux de « j’ai décidé » par « l’IA m’a suggéré ».

Le dilemme de la transparence : faut-il dire au client que le texte a été écrit par une IA ?
18 min

Le dilemme de la transparence : faut-il dire au client que le texte a été écrit par une IA ?

Vous venez de rédiger l’e-mail parfait pour votre client. Le ton est juste, les arguments bien construits, la pointe d’humour parfaitement dosée. Un seul problème : ce n’est pas vous qui l’avez écrit. C’est Claude. Ou ChatGPT. Ou Gemini – peu importe.

Maintenant la question : allez-vous le dire à votre client ?

L’instinct souffle : « Bien sûr que non. Quelle importance, comment c’est écrit, si c’est bien écrit ? ». L’éthique professionnelle murmure : « Il faut être transparent ». Et la science révèle quelque chose d’inattendu : les deux options détruisent la confiance – mais de manières différentes et avec des conséquences distinctes.