đŻ EssentIAI â Ădition #02
đ Microsoft gĂ©nĂ©ralise les agents, Moderna rĂ©invente lâorganigramme, Les IA rĂ©vĂšlent leurs biais, lâIA Ă©value nos leaders, La confiance stagne, Les CEO doutent - Outil: La voix devient stratĂ©gique
đ§ LâEssentiel
Bienvenue dans ce second numĂ©ro dâEssentIAI: la veille stratĂ©gique qui trie dĂ©crypte lâIA.
Vous ĂȘtes plus de 100 nouveaux abonnĂ©s en une semaine đ€©. Ăa compte beaucoup pour moi. Merci dâĂȘtre lĂ dĂšs le dĂ©but.
đŹ Si ce format vous plait, faites-le vivre: partagez un article, transfĂ©rez cette Ă©dition, citez une idĂ©e en rĂ©union. Le signal ne devient utile que sâil circule.
đ Un immense merci Ă celles et ceux qui parlent dâEssentIAI autour dâeux! Câest grĂące Ă vous que notre communautĂ© va grandir. Un remerciement particulier Ă Ioulia MickaĂŻloff, LoĂŻc Lengrand, Leila Hertzog, Virginie Arnal, Sylvio Desjardins, Olivier Rozec, Thierry De Couvreur & JĂ©rĂ©my Abramowski pour votre soutien et rayonnement âïžđ
Dans cette édition : des IA qui trouvent leur place dans les équipes, des CEO encore en équilibre instable entre ambition et exécution, et la fusion progressive des départements IT et RH pour piloter les agents IA.
Mais aussi : des algorithmes qui trahissent leurs biais. Ă ce sujet, je publie ce matin sur LinkedIn au sujet de du scandale qui frappe Workday et de ce quâil rĂ©vĂšle sur les limites actuelles des outils RH/TA dopĂ©s Ă lâIA.
Au menu de cette Ă©dition on parlera aussi de stratĂ©gie, gouvernance, dâarbitrages organisationnels⊠et de cette ligne de plus en plus floue entre simple assistance et automatisation complĂšte.
On y va ?
đ La Veille FiltrĂ©e
đ€ StratĂ©gie - Travailler avec des agents IA: la nouvelle norme ? (EN)
Microsoft envisage un avenir oĂč chaque employĂ© deviendra un "agent boss", supervisant plusieurs d'agents IA pour augmenter l'efficacitĂ© sans augmenter les effectifs. Une Ă©tude auprĂšs de 800 employĂ©s de P&G rĂ©vĂšle que les individus assistĂ©s par l'IA Ă©galent les performances des Ă©quipes humaines seules, et que les Ă©quipes hybrides surpassent toutes les autres en matiĂšre d'innovation. Microsoft propose une transformation en trois phases : assistant IA individuel, collĂšgues numĂ©riques, puis agents autonomes supervisĂ©s par l'humain.
đ§ Organisation - Fusion RH et IT pour piloter 3000 Agents (FR)
Moderna a fusionné ses départements RH et IT pour créer une collaboration homme-machine à grande échelle. Ce nouveau modÚle, dirigé par un Chief People & Digital Officer, supervise 5 800 employés et 3 000 agents IA, reflétant une transformation organisationnelle profonde. L'objectif est de fluidifier les flux de travail, en remplaçant les rÎles statiques par des interactions dynamiques entre humains et IA. Cette approche cherche à aligner les talents et la technologie pour mieux se préparer à l'IA.
đ§ Biais - TrackingAI rĂ©vĂšle le QI et les biais politiques des IA grand public (EN)
TrackingAI est une plateforme qui analyse quotidiennement lâĂ©volution du QI & des biais politiques des diffĂ©rents modĂšles d'IA. Les rĂ©sultats montrent que la plupart des IA grand public penchent vers la gauche Ă©conomique et sont socialement libertaires. Cette initiative souligne l'importance de la transparence et de la diversitĂ© dans les donnĂ©es d'entraĂźnement des IA.
đ§ Leadership - OĂč l'IA doit-elle intervenir ? (EN)
L'article analyse l'intégration de l'IA dans l'évaluation et la sélection des leaders. L'IA excelle dans l'automatisation des tùches administratives, la synthÚse de données et la proposition de plans de développement personnalisés. Cependant, elle ne doit pas remplacer l'expertise humaine, notamment pour l'interprétation contextuelle et la motivation des candidats. Les auteurs insistent sur la nécessité de valider scientifiquement les outils d'IA et de garantir leur conformité légale, en particulier face aux algorithmes opaques. Ils recommandent une approche combinant outils internes et externes, validés pour prédire efficacement la performance.
đ Paradoxe Mondial - LâIA progresse, la confiance reste fragile (EN)
Cette Ă©tude mondiale de KPMG, menĂ©e auprĂšs de 48 000 personnes dans 47 pays, rĂ©vĂšle une adoption massive de l'IA (66% l'utilisent rĂ©guliĂšrement), mais une confiance limitĂ©e: seulement 46% des rĂ©pondants sont prĂȘts Ă lui faire confiance. Les Ă©conomies Ă©mergentes (Inde, Nigeria, Chine) affichent des niveaux de confiance et d'usage plus Ă©levĂ©s que les pays dĂ©veloppĂ©s, oĂč les prĂ©occupations Ă©thiques freinent l'adoption. Au travail, 57% des employĂ©s dissimulent leur utilisation de l'IA, souvent sans formation ni cadre clair, exposant les entreprises Ă des risques de conformitĂ© et de qualitĂ©. L'Ă©tude souligne l'urgence d'investir dans la formation, la gouvernance et la transparence pour aligner usage et confiance.
đ Gouvernance - Ce que pensent (vraiment) les CEO (EN)
IBM a interrogĂ© 2 000 CEO dans 33 pays: lâIA est une Ă©vidence stratĂ©gique, mais la mise Ă lâĂ©chelle reste laborieuse. Si 61% des dirigeants disent adopter activement les agents IA, 60âŻ% admettent rester bloquĂ©s en phase pilote ! La prioritĂ© glisse du fantasme technologique vers le retour concret: 65% priorisent selon le ROI. Autre signal fort : 68% estiment que lâIA redĂ©finit le cĆur mĂȘme de leur business model. Pour en tirer parti, 72% misent sur leurs donnĂ©es propriĂ©taires, et 31âŻ% de leurs Ă©quipes devront ĂȘtre reformĂ©e sous trois ans.
đą Ce que tu lis te plais ?
Fais suivre Ă des personnes autour de toi.
Parles-en sur LinkedIn. Mentionne-le dans une discussion.
Câest comme ça que le signal circule.
đ§° Dans la boĂźte Ă outils
đŁïž Sesame: vers des voix numĂ©riques vĂ©ritablement humaines (EN)
Sesame dévoile CSM (Conversational Speech Model): une nouvelle génération de voix IA conçue pour dialoguer de maniÚre fluide, humaine et émotionnellement pertinente. Le modÚle combine intelligence émotionnelle, dynamique de conversation et conscience contextuelle pour créer des interactions vocales qui ne sonnent plus artificielles. Objectif: instaurer une véritable présence vocale.
đ La perspective
Et si la voix devenait le prochain levier de confiance en IA?
Longtemps, les voix gĂ©nĂ©rĂ©es par IA ont butĂ© sur un plafond de verre: celui de la vallĂ©e de lâĂ©trange. Ce moment oĂč la ressemblance devient troublante, presque dĂ©rangeante.
Avec son modĂšle CSM, Sesame amorce une rupture: passer de la voix fonctionnelle Ă la voix relationnelle. Ce modĂšle ne se contente plus dâimiter les mots. Il capte les Ă©motions, adapte le rythme, comprend le contexte conversationnel. Bref, il crĂ©e une illusion de prĂ©sence.
Pourquoi câest stratĂ©gique? Parce que dans bien des cas dâusage (assistant virtuel, hotline, formation, accompagnement santĂ©), ce nâest pas lâinfo qui compte, câest la relation. Et la voix est un puissant vecteur dâadhĂ©sion, dâempathie et de confiance.
đ Laurent Brouat le souligne dans sa derniĂšre newsletter: lâimpact sur le recrutement est dĂ©jĂ lĂ : des IA, accessibles Ă toute heure, sans stress ni jugement. Je ne peux que confirmer. Lors de mon Live - Sourceurs? Non, peut-ĂȘtre en Janvier, un dev nous racontait son entretien avec une IA: bluffant et ce nâest pas du niveau de Sesame.
Ă lâheure oĂč la confiance dans lâIA avance plus lentement que son adoption, cette Ă©volution est un vrai signal : la voix devient un levier clĂ© de rĂ©assurance, dâappropriation⊠voire de prĂ©fĂ©rence.
La voix nâest pas un gadget UX : câest un canal stratĂ©gique pour humaniser lâIA, restaurer la confiance et crĂ©er de la valeur dâusage.
đŹ Essaie Sesame et dis-moi ce que tu en penses en commentaire.
đą Si ça tâa plu, parles-en autour de toi.
Le signal se propage de personne Ă personne.
Pas dâalgo. Juste toi.
đŹ Pour ne rien rater des prochaines Ă©ditions