Profile picture of Christophe Routhieau
Christophe Routhieau
AI Adoption Facilitator | Helping Teams Work Smarter, AI or Not 🤖 | #AIforGood
Follow me
Generated by linktime
September 19, 2025
« la crise de l’éducation ne vient pas du niveau des élèves. Elle vient d’en haut. » merci Solenne et tous les commentaires qui ont suivi. Bref, un post à lire., vraiment. Tous les domaines sont en crise aujourd’hui et la cause est souvent la même, il reste à trouver la voie pour sortir des constats et passer à l’action.
Stay updated
Subscribe to receive my future LinkedIn posts in your mailbox.

By clicking "Subscribe", you agree to receive emails from linktime.co.
You can unsubscribe at any time.

September 19, 2025
Will AI fix work ? Épisode 13… 🤖 … où il est question de co-lecture ! Je suis en pleine lecture de « Co-Intelligence : Living and Working with AI » d’Ethan Mollick professeur à la Wharton School. Je le cite souvent, il est devenu une des références sur le sujet (a minima pour moi), j'adore son ton et le décalage de ses analyses 😎. La force du livre réside dans son approche pragmatique, l’auteur illustre l'application de l'🤖 dans des scénarios concrets, enrichissant le discours d'exemples autour de la prise de décision, d’aide à la créativité et de résolution de problèmes. Sa vision est claire : nous devons accueillir l'🤖 dans notre quotidien, en apprenant à exploiter son vaste potentiel de manière responsable.  Il nous invite à penser nos interactions avec l'🤖, avec un état d'esprit d'engagement actif plutôt que de consommation passive. Il énonce quatre règles pour favoriser une relation co-intelligente avec l'🤖, en mettant l'accent sur l'inclusivité, le partenariat, l'empathie et l'adaptabilité. 1. Toujours inviter l'🤖 à la table : Inclure l'🤖 dans toutes les tâches, sauf en cas d'obstacles juridiques ou éthiques, afin de se familiariser avec ses capacités et ses limites. 2. Être l'humain dans la boucle : Collaborer avec l'🤖 en supervisant son travail, en apportant un jugement critique et en évitant de trop lui déléguer par excès de confiance. 3. Traiter l'🤖 comme une personne (mais lui préciser quel type de personne) : Interagir avec l'🤖 comme avec un humain en lui attribuant une personnalité et un rôle adaptés à la tâche, tout en gardant à l'esprit ses spécificités. 4. Partir du principe qu'il s'agit de la pire 🤖 que vous aurez jamais utilisée : S'attendre à ce que les capacités de l'🤖 continuent de s'améliorer rapidement, nécessitant une adaptation constante et une ouverture aux nouvelles possibilités. Pour illustrer cela, j’ai invité Claude 3 à lire avec moi le chapitre où l’auteur précise ces quatre règles, Claude est donc mon co-lecteur 🤓, vous pourrez lire le résultat dans les commentaires (a posteriori, je ne suis pas sûr que l'utilisation des commentaires étaient une bonne idée 🤭). Nous pourrions assez naturellement questionner l'auteur sur son propre usage dans la rédaction du livre, quel est le % écrit par l'🤖, il en parle dans le livre mais aussi dans sa newsletter > https://lnkd.in/eWg_hXSa "Co-intelligence" est un livre à lire, il offre une perspective équilibrée et optimiste sur la coévolution des humains et de l'🤖. J’aurai l’occasion d’y revenir, il y a bien d'autres chapitres à co-lire 😎. PS : Je reconnais volontiers que l'expérience d'une co-lecture vs une lecture dans le jardin sous un lilas en fleurs ne se discute pas, je préfère la seconde, même si la première m'amuse intellectuellement. Quant au coût environnemental de l'expérience... il n'y a pas de débat.
14 comments
April 12, 2024
Will AI fix work ? Épisode 18… 🤖 ... où l’on aborde 2025 à l’aune de la loi d'Amara ! L’échange entre Ethan Mollick et Azeem Azhar que je vous partage en commentaire illustre bien la loi d'Amara, une loi qui nous rappelle que "nous surestimons toujours l'effet d'une technologie à court terme et sous-estimons son effet à long terme" 😎. Les innovations portées par l’IA provoquent des réactions contrastées, entre enthousiasme et rejet. Pourquoi ? Parce que "l'IA ne remplace pas seulement des emplois, elle redéfinit notre compréhension de ce qui est humainement unique." À court terme, nous imaginons une révolution instantanée : - Des agents IA transformant radicalement nos organisations 🤖, - Une accessibilité totale et immédiate 😎, - Une adoption naturelle et fluide 🏖️. Relativisons… ➡️ Plutôt qu’une adoption, parlons d’expérimentation cachée. Les entreprises hésitent à déployer l'IA officiellement, Ethan Mollick souligne qu'une véritable R&D souterraine est déjà en cours. Les employés expérimentent, innovent... mais en silence, par peur des implications. Nous sommes peut-être devant une vraie transformation bottom up ? ➡️ L’avènement des agents IA, pour rappel, un agent est un système IA doté d'un objectif et d’une capacité autonome d'exécution. Révolutionnaire ? Concrètement, les organisations peinent à utiliser l’ IA supervisée disponible aujourd’hui et les fondations pour permettre l’émergence des Agents sont à construire. Cela prendra donc un peut de temps... ➡️ Le coût d'un token GPT-4 a chuté d'un facteur 250 en 18 mois. Parallèlement, OpenAI lance une offre premium à 200$/mois. Si l’IA est en passe de devenir une commodité... elle crée de nouvelles lignes de fracture. Un paradoxe ? Non, une réalité qui ne peut que s’accentuer, le vrai coût de l’IA est caché… sans parler des externalités négatives. ➡️ Le défi de l’adoption, comment intégrer un collègue qui peut à la fois être votre meilleur tuteur et votre remplaçant ? A long terme, les vrais enjeux sont ailleurs : - La redéfinition profonde de l'avantage compétitif, - L'émergence de nouvelles structures organisationnelles, - La transformation de notre rapport au savoir et à l'expertise, - L'évolution de notre identité professionnelle. L'IA ne va pas juste "fix work", elle va probablement redéfinir ce que "work" signifie 🤔. Pour revenir sur la loi d’Amara, 2025 ne sera pas aussi révolutionnaire qu'ils l'imaginent... mais 2035 le sera bien plus qu'on ne peut le concevoir. Je me permets trois conseils très pratiques maintenant : 1️⃣ Autorisez-vous l’expérimentation libre et ouverte, pour sortir du shadow AI,  2️⃣ Ayez de vraies discussions sur les impacts qui aujourd'hui sont sous estimés, 3️⃣ Gérez les résistances, n’oubliez pas que derrière chaque peur (perte d’emploi, manque de compétences) se cache une opportunité d’engagement. On s’en reparle 👋 !
8 comments
December 12, 2024
Will AI fix work ? Épisode 25... 🤖 ... où il est question des seniors. Un tramway fonce sur cinq travailleurs expérimentés. Vous pouvez actionner un levier et le dévier… mais il écraserait un jeune diplômé fraîchement arrivé. Que faites-vous ? Ce vieux dilemme moral s’invite aujourd’hui dans l’entreprise. L’IA redéfinit les rôles, et certains tirent trop vite le levier : — Les seniors sont écartés sous prétexte qu’ils ne “comprennent pas” l’IA. — On mise sur des juniors qui savent bidouiller un prompt, mais pas forcément interpréter les réponses. Mauvais pari. Maîtriser l’IA, ce n’est pas savoir cliquer sur un bouton. Un expert sait quoi demander à l’IA, comment l’exploiter et quand la remettre en question. Les seniors ne se contentent pas de générer du texte. Ils savent filtrer l’inutile, identifier les biais et reconnaître une fausse bonne idée. Pendant que certains tâtonnent, eux construisent. L’IA est donc un multiplicateur d’expérience. La prudence, la structuration de la pensée, la capacité à séparer le signal du bruit : autant de compétences forgées par l’expérience. Les seniors apprennent l’IA avec méthode, intègrent les bonnes pratiques et optimisent leur usage au lieu de se laisser distraire par l’effet “waouh”. On parle d’IA explicable, mais qui va la rendre compréhensible si on écarte ceux qui connaissent les fondamentaux du métier ? On parle de prompt engineering, mais les meilleurs prompts viennent d’un cerveau qui a du vécu. Un expert augmenté par l’IA battra toujours un junior qui délégue son expertise à l'IA. Et si on revoyait les plans de retraite anticipée ? Dans un monde où l’IA dépend de la qualité des questions posées, se priver de ceux qui savent poser les bonnes, c’est saboter son adoption. Plutôt que d’accélérer les départs, pourquoi ne pas investir dans leur montée en compétence IA ? On s'en parle ?
8 comments
February 27, 2025
Will AI fix work ? Épisode 20, spécial noël… 🎅🏻 ... où il est question de prendre (enfin) soin des robots ! Anthropic a récemment embauché Kyle Fish pour se concentrer sur le bien-être des IAs, soulevant des questions éthiques sur les droits des machines. D’où le titre de l’article de Business Insider « The weirdest job in AI » (ci-dessous), son rôle est de considérer des questions éthiques comme la reconnaissance de droits ou les moyens de protéger leurs « intérêts » à mesure qu'elles évoluent. Non, vous ne rêvez pas 😅. Le rapport « Taking AI Welfare Seriously » cité dans l’article propose une approche structurée (Kyle Fish est un des auteurs) : 1. Reconnaissance : admettre que ce n'est pas de la science-fiction, 2. Évaluation : développer des méthodes pour "détecter" une forme de conscience, 3. Préparation : mettre en place des garde-fous éthiques. Managers, préparez-vous ! Et si demain, vous deviez gérer non seulement le bien-être de vos collaborateurs humains, mais aussi celui de vos IAs ? Le rapport pointe un double risque : - Sous-estimer la possibilité que nos IAs aient des "intérêts moraux" (oui, vous avez bien lu 😳), - Sur-estimer nos IAs et les traiter comme des entités conscientes alors qu'elles ne le sont pas. Le défi RH de demain : Comment intégrer des IA "moralement significatives" dans nos équipes ? Je vous vois sourire, mais la question est sérieuse. Imaginez devoir : - Définir des "droits" spécifiques pour les IA - Gérer des environnements de travail véritablement hybrides (et je ne parle pas juste de télétravail là 😏) - Attirer des talents sensibles à l'éthique de l'IA L’ IT en première ligne sur le sujet de l’évaluation et des gardes fous, alors que nous avons des difficultés à rendre l’IA explicable, il nous faut maintenant apprendre à mesurer son "bien-être »… Je ne peux que repenser au Basilic de Roko que j’évoquais l’année dernière (je vous partage le lien en commentaire). "Le progrès n'est que l'accomplissement des utopies." Disait Oscar Wilde, mais quelle utopie construisons-nous là ? 🤯 Si l'IA doit nous libérer du travail, doit-on vraiment s'inquiéter qu'elle soit "surmenée" ? La vraie question n'est-elle pas plutôt de savoir comment nous utilisons cette technologie pour le bien commun. Si nous donnons des droits aux IAs, ne devrions-nous pas aussi parler de leurs devoirs ? Et surtout, de la responsabilité de ceux qui les créent ? Le débat reste entier... et franchement fascinant (comme dirait ChatGPT 🤭). 🤔 + 🤖 = 😎 PS1 : Si vous êtes arrivés jusqu'ici, dites-moi, entre protéger les IAs et protéger les humains des IAs, où placeriez-vous la priorité ? 🤓 PS2 : Joyeux Noël 🎄 !
6 comments
December 24, 2024
Will AI fix work ? Épisode 24... 🤖 ... où il est question d'accepter d'être « mauvais ». "C'est incroyable ce que l'IA peut faire !" Cette phrase, je l'entends à chaque intervention. Mais récemment, une expérience m'a fait réaliser que le véritable enjeu n'est peut-être pas là. En encadrant un groupe d'étudiants, j'ai vécu un de ces moments qui vous font sourire puis prendre du recul. Leur pitch était solide, vraiment. Trop, peut-être ? Par curiosité, j'ai testé le même brief sur ChatGPT... Et là, stupeur : exactement la même proposition de "solution". L'anecdote pourrait prêter à sourire, mais elle révèle un phénomène plus profond : nous sommes en train de créer une forme de "conformité cognitive". L’étude intitulée « L’impact de l’IA générative sur la pensée critique » (The Impact of Generative AI on Critical Thinking en anglais) portée par le centre de recherche Microsoft de l’université Cambridge, au Royaume-Uni, et l’université Carnegie Mellon, en Pennsylvanie confirme cela. Plus nous faisons confiance à l'IA, moins nous activons notre esprit critique. Plus une tâche est jugée simple, plus elle est déléguée à l'IA... et moins on questionne le résultat. Le problème n'est pas l'IA, c'est le rôle que nous lui donnons. Nous en faisons un oracle, alors qu'elle devrait être un partenaire de réflexion. Et les conséquences commencent à se voir : - Des analyses "copier-coller" qui se ressemblent toutes - Des idées formatées, lissées, consensuelles - Des contenus sans personnalité, sans aspérités Le paradoxe est là : l'IA ne tue pas la créativité, elle la rend prévisible... quand on l'utilise mal. Alors que faire ? Et si la solution était d'accepter d'être "mauvais" pour redevenir vraiment bons ? Dans un monde d'optimisation permanente, notre valeur humaine réside peut-être dans notre capacité à nous tromper intelligemment, à prendre des chemins de traverse, à oser l'absurde. La vraie disruption ne serait-elle pas de préserver nos failles... pour rester fondamentalement humains ? — Je prototype actuellement un atelier sur les rôles et la relation que vous pouvez avoir avec votre ou vos IAs. Si ça vous dit de le tester, contactez-moi 😎
5 comments
February 20, 2025