🎯 EssentIAI – Édition #13
Cette semaine: Faille, prompts, scandale IA et coups de théâtre
Bonjour👋
L’IA avance si vite que chaque semaine présente son lot de surprises, de buzz… et de remises en question.
Entre failles inattendues, outils RH à apprivoiser et débats sans fin sur l’avenir du travail, difficile de garder la tête froide.
Dans cette édition, je te propose un tour d’horizon sans jargon ni certitudes: de la boîte à outils du RH à la dernière faille “CometJacking”, en passant par les nouvelles frontières de l’audit et du raisonnement IA.
Prends ce condensé comme un point d’appui : à compléter, critiquer, partager – mais surtout à tester, comme tout ce qu’on ne comprend pas vraiment tant qu’on ne s’y frotte pas.
Bonne lecture !
Tu n’es pas encore abonné? C’est par ici 👇
SOUTIEN
Merci à Leila Hertzog, Virginie Arnal, Isis de Romefort, Béatrice Roy et Virginie M de soutenir EssentIAI🚀
🔎 La Veille Filtrée
🧰 RH — 307 prompts ChatGPT à tester (EN)
Cet article propose 307 prompts classés par fonction RH (recrutement, stratégie, formation, culture…). L’ambition: rendre l’usage de ChatGPT accessible et concret pour les CHROs, sans jargon technique. L’approche “catalogue” offre une base utile mais nécessite un tri rigoureux : certains prompts sont génériques, peu contextualisés, et sans guide de priorisation. Un bon point de départ pour créer sa propre bibliothèque RH-GPT, à condition d’adapter et tester avant d’adopter.
🧨 Sécurité - 250 fichiers suffisent à piéger un LLM (EN)
Cette étude révèle qu’il suffit d’ajouter ~250 documents malicieusement falsifiés pour créer une backdoor dans un modèle de langage et même avec un modèle de 13 milliards de paramètres entraîné sur des quantités massives de données. Le résultat remet en cause l’idée selon laquelle un attaquant doit contrôler un pourcentage significatif du jeu de données. Ici, ce n’est pas la proportion mais le nombre absolu de documents qui compte pour réussir l’attaque. Même avec une part infinitésimale (0,00016 % des données d’entraînement), les backdoors fonctionnent dans les tests pour générer du texte aléatoire dès qu’un trigger est présent. Les chercheurs montrent aussi que des défenses comme l’entraînement complémentaire sur des données “propres” peuvent atténuer l’effet, mais soulignent que les systèmes actuels de protection restent insuffisants.
⚖️ Audit - Deloitte rembourse 400K€ un rapport truffé d’erreurs liées à l’IA (EN)
Deloitte Australie va rembourser une partie des 440 000 dollars australiens payés par le gouvernement australien pour un rapport comportant des erreurs manifestes : citation d’un jugement inventé, références à des études fictives, utilisation non déclarée d’un système d’IA (Azure OpenAI). Après la publication d’une version corrigée, le cabinet a admis “quelques notes incorrectes” et remboursé le versement final sous contrat. Le “cœur” du rapport resterait inchangé...
🕵️♂️ Sécurité - CometJacking : un clic suffit pour détourner un navigateur IA (EN)
Une faille critique baptisée CometJacking permet de détourner le navigateur IA Comet de Perplexity via une simple URL. En abusant de la mémoire de l’agent IA, l’attaque injecte des prompts déguisés qui exfiltrent des données sensibles comme des emails ou calendriers. Aucun mot de passe requis: l’agent agit en interne, avec les autorisations de l’utilisateur. Une obfuscation légère (ex : Base64) suffit à contourner les protections. Même si Perplexity minimise le risque, ce cas révèle un nouveau type de menace : le navigateur IA comme cheval de Troie “autorisé”.
🧭 Travail - IA & emploi : «Personne ne sait rien de l’avenir de l’IA» (EN)
Lors du CNBC Workforce Executive Council Summit, Ethan Mollick (Wharton) a envoyé un message clair aux dirigeants: ne surestimez pas vos certitudes sur l’impact de l’IA sur les compétences et les emplois. Même les grands labs s’appuient sur des retours empiriques incertains. Le plus urgen ? Tester, pratiquer, impliquer les équipes. Selon lui, les “task forces IA” figées sont une impasse, et la priorité doit être de “crowdsourcer” l’usage. L’IA est déjà utile, mais mal diffusée : les soft skills (curiosité, agilité, feedback) deviennent clés, plus que les prédictions.
📊 AI - Bilan 2025 : raisonner, monétiser, gouverner (EN)
Le rapport 2025 marque une bascule : les modèles passent de la génération à la réflexion (raisonnement, planification, auto-correction). Côté marché, les grands labs engrangent ~20 Md$ de revenus, 44 % des entreprises paient déjà pour des outils, et les usages explosent (95 % des pros). Côté tensions : modèle “faussement aligné”, taxe de monitorabilité, conflits de régulation. Le rapport met en lumière une IA qui devient à la fois plus puissante, plus intégrée — et plus opaque.
📢 Ce que tu lis te plais ?Fais suivre à des personnes autour de toi.
Parles-en sur LinkedIn.
🧰 Dans la boîte à outils
Google introduit avec Gemini 2.5 une capacité inédite baptisée “Computer Use” : un agent capable d’observer l’écran comme un humain (via captures) et d’interagir directement avec une interface web.
Concrètement, l’IA analyse la capture d’écran, comprend la tâche demandée (par exemple “remplir un formulaire” ou “extraire un tableau”), puis exécute une suite d’actions (click_at, type_text_at, scroll) pour y parvenir.
Chaque étape enclenche une boucle : le modèle voit → raisonne → agit → observe à nouveau, jusqu’à l’achèvement de l’objectif.
💡 Cas d’usage prometteurs :
automatisation de workflows web répétitifs,
tests fonctionnels et UI de produits numériques,
exploration de sites dépourvus d’API pour la collecte de données structurées.
⚙️ Pourquoi c’est clé : cette approche rapproche l’IA d’une interaction “humaine” avec les machines, sans accès au code ni intégration lourde. Elle ouvre la voie à des agents visuels autonomes, capables de naviguer dans tout environnement logiciel standard.
⚠️ À savoir : la fonctionnalité reste en Preview expérimentale. Des erreurs d’interprétation ou d’action sont possibles, et Google recommande de l’utiliser uniquement dans un environnement sandboxé et supervisé.
👉 Documentation officielle
C’est tout pour cette édition !
Si tu as trouvé ces infos utiles ou interpellantes, n’hésite pas à partager autour de toi ou sur LinkedIn. L’IA n’a pas dit son dernier mot, et chaque semaine apporte son lot de questions, de risques, de nouveautés. Autant les explorer ensemble.
À la semaine prochaine pour une nouvelle dose de veille et de réflexions sur l’intelligence artificielle !
À la semaine prochaine,
Nicolas








