Scott H. Young, auteur du livre Ultralearning publié en 2019, revient sur les principes de son ouvrage à l’ère de l’IA. Bien que l’idée centrale – l’importance de l’apprentissage autodidacte et continu pour rester compétitif dans un monde saturé d’informations – reste valable, l’IA a profondément transformé les méthodes d’apprentissage. Elle n’a cependant pas réduit l’effort intrinsèque requis, ni modifié la tendance des individus à privilégier des activités moins exigeantes.
L’IA offre de nouvelles opportunités, notamment pour la méta-apprentissage (comprendre comment apprendre), en facilitant la recherche et la structuration des connaissances, même pour des compétences pratiques obscures. Young souligne que l’IA peut aider à décomposer un sujet en sous-parties, listes de concepts ou activités pratiques, réduisant ainsi les coûts de cette phase préparatoire. Cependant, elle ne remplace pas l’engagement et la discipline nécessaires pour maîtriser une compétence.
L’article de WeScale présente l’évolution naturelle des métiers de développement et d’exploitation (Dev & Ops) vers une approche Augmented Dev & Ops, intégrant l’IA comme assistant plutôt que comme remplaçant. L’idée centrale repose sur une délégation progressive des tâches à l’IA selon leur position dans le cycle de travail, tout en maintenant l’humain dans la boucle décisionnelle. Par exemple, en phase de spécification, l’IA questionne et propose des pistes, mais la décision finale reste humaine, tandis que dans la réalisation du code, elle prend en charge la production sous supervision.
Le modèle distingue deux cycles : le développement, structuré en quatre étapes (Spécifier, Concevoir, Réaliser, Valider), et les opérations, en continu (Déployer, Observer, Remédier, Optimiser). L’IA automatise davantage les tâches en aval (comme la génération de code ou la détection d’anomalies), tandis que l’humain conserve le contrôle sur les choix stratégiques et les arbitrages complexes. La frontière entre délégation et intervention humaine est clairement définie pour éviter les risques liés aux décisions automatisées.
Enfin, l’article souligne que cette transformation repose sur une adoption massive de l’IA par les consultants (93 % l’utilisent quotidiennement) et une refonte des processus pour tirer parti de ses capacités. L’enjeu n’est pas de savoir si l’IA remplacera les professionnels, mais comment l’intégrer efficacement pour améliorer la productivité et la qualité, tout en préservant la responsabilité humaine.
Deuxième journée orientée vers des retours d’expérience concrets autour de l’IA et de son industrialisation, avec un fil conducteur clair : privilégier des approches pragmatiques, bien dimensionnées et intégrées à l’écosystème existant plutôt que des solutions “tout gros modèle”. Un exemple marquant est l’usage de petits modèles spécialisés (SLM/TLM) combinés à du RAG et une orchestration légère pour gérer un support client efficacement sans explosion des coûts.
Un autre point fort concerne l’“agentic coding” vu comme un sujet de platform engineering : son adoption à grande échelle impose de repenser workflows, gestion du contexte et standardisation via des outils ou marketplaces internes, avec une approche spec-driven (spécifications versionnées lisibles par humains et machines).
La journée aborde aussi des problématiques d’infrastructure à grande échelle (ex. gestion de centaines de millions d’emails) et des réflexions plus larges sur le rôle politique de la tech, tout en restant ancrée dans des retours terrain et des outils concrets pour les devs et ops.
L’article de Rahul Garg, ingénieur principal chez Thoughtworks, propose d’encapsuler les standards d’une équipe sous forme d’instructions versionnées et partagées, afin d’améliorer la cohérence des résultats générés par les assistants IA. L’idée centrale est de transformer les connaissances tacites des équipes (conventions de code, bonnes pratiques de sécurité, etc.) en artefacts exécutables, réduisant ainsi la dépendance aux experts et les variations de qualité selon les utilisateurs.
L’auteur souligne que les pratiques informelles, acquises par l’expérience, créent des disparités dans l’utilisation de l’IA, même au sein d’une même équipe. Sans cadre formalisé, les prompts varient selon les individus, ce qui nuit à la standardisation des livrables. La solution envisagée consiste à externaliser ces règles dans des documents versionnés, accessibles à tous, pour garantir une application uniforme des standards.
Enfin, Garg illustre ce problème avec des exemples concrets : un développeur senior inclut des détails précis dans ses requêtes (style fonctionnel, gestion des erreurs, conventions de nommage), tandis qu’un junior se contente de demandes vagues, produisant des résultats moins alignés avec les attentes de l’équipe. L’objectif est donc de systématiser ces instructions pour fluidifier le travail collaboratif avec l’IA.
Compte-rendu du premier jour de DevoxxFR 2026 marqué par une forte présence de l’IA le matin, puis des sujets plus variés l’après-midi, mêlant technique, retours d’expérience et thématiques humaines. La keynote d’ouverture insiste sur une approche critique de l’IA : elle amplifie les capacités humaines mais reste biaisée, coûteuse et dépendante du jugement humain, loin d’une intelligence générale autonome.
Plusieurs interventions montrent l’impact concret de l’IA sur les pratiques : dans les échecs, elle devient un outil d’apprentissage qui élève le niveau global plutôt qu’un simple adversaire ; dans le développement, elle permet d’explorer des approches “spec-driven”, même si les formats pratiques peuvent être victimes de leur succès. Un talk technique sur une base de données analytique détaille la chaîne complète d’exécution (parsing, optimisation, planification), illustrant la complexité et les gains de performance des moteurs modernes.
Les sessions plus transverses apportent des réflexions utiles sur le travail et l’organisation : une intervention sur le rapport au temps souligne les effets négatifs de l’accélération et du multitâche, ainsi que le paradoxe d’une IA censée faire gagner du temps mais qui tend à augmenter la charge de travail. D’autres formats, comme un quiz Kubernetes, rappellent l’importance de revisiter ses connaissances, même sur des sujets maîtrisés.
Enfin, des sujets humains et organisationnels sont abordés, notamment la maternité dans la tech, avec des pistes concrètes pour améliorer l’inclusion et les conditions de travail. L’événement met aussi en avant l’importance des échanges informels (“hallway track”) et des discussions entre pairs, considérés comme une part essentielle de la valeur de la conférence. (
CodeBurn est un outil en ligne de commande qui permet de visualiser et analyser l'utilisation des tokens par les IA de codage comme Claude Code, Codex ou Cursor. Il offre un tableau de bord interactif en TUI avec des graphiques et des données détaillées par modèle, tâche ou projet, incluant le taux de réussite en une seule tentative et les coûts associés. L'outil se distingue par son approche sans wrapper ni proxy, en lisant directement les données de session depuis le disque, et supporte l'export en CSV ou JSON.
Disponible sous forme d'application macOS native ou via npm, CodeBurn fonctionne sans clé API et s'appuie sur LiteLLM pour la tarification. Il permet des analyses sur différentes périodes (aujourd'hui, 7 jours, mois, etc.) et inclut des fonctionnalités comme l'optimisation pour identifier les gaspillages ou la comparaison de modèles. Les commandes simples comme codeburn today ou codeburn report -p 30days facilitent son utilisation.
L’auteur partage son workflow structuré pour intégrer l’IA dans le développement logiciel tout en maintenant la clarté et la maintenabilité du code. L’idée centrale est que le travail réel commence avant l’écriture du code, en privilégiant la réflexion écrite plutôt que l’implémentation directe.
Le processus se décompose en trois étapes : d’abord, un plan informel en langage naturel pour formaliser la pensée, puis la génération d’un PRD (Product Requirements Document) via un entretien structuré avec l’IA pour identifier les failles du plan initial. Enfin, la transformation du PRD en issues techniques, organisées en tranches verticales pour garantir une intégration complète et vérifiable.
L’objectif est de forcer une réflexion approfondie en amont, où l’IA sert à tester et affiner les hypothèses plutôt qu’à remplacer le raisonnement humain, évitant ainsi des solutions techniques floues ou mal adaptées.
L’article d’Eventuallycoding questionne le lien entre l’essor de l’IA et les vagues massives de licenciements dans la tech (273 000 prévus en 2026, 10 fois plus qu’avant le Covid). Si l’IA est souvent invoquée comme raison, l’auteur suggère qu’elle sert surtout de prétexte ("AI washing") pour masquer des erreurs de gestion. Exemples : Block (ex-Square) a triplé ses effectifs post-Covid avant de licencier 40 %, tandis qu’Oracle utilise l’IA pour justifier des restructurations. L’IA devient un outil marketing pour rassurer les actionnaires, alors que les vrais problèmes (sur-effectifs, mauvaise rentabilité) sont rarement évoqués. Une analyse critique des discours technologiques et de leurs arrière-plans économiques.
Cette page explique les principales notions liées aux modèles d’IA générative en clarifiant le vocabulaire essentiel : un prompt est l’instruction donnée au modèle, découpée en tokens (unités de texte pouvant être des mots ou fragments) que le modèle transforme en données numériques pour prédire la suite la plus probable ([Potentiel It][1]) ; elle précise aussi qu’un modèle est caractérisé notamment par son nombre de paramètres (souvent exprimé en milliards, “B”), qui influence ses capacités, tandis que la quantization consiste à réduire la précision des poids pour diminuer la taille mémoire et accélérer l’exécution au prix d’un léger compromis sur la précision
Camille Roux partage comment il a automatisé la diffusion de sa veille technologique pour atteindre 1,65 million d’impressions en 30 jours sur 4 plateformes. Après des années de partage manuel et irrégulier, il a développé Feedcast, un outil Rails automatisant la publication (adaptation des textes, visuels, timing) tout en conservant sa touche éditoriale. Son processus reste manuel pour la sélection des articles, mais l’IA (via Claude Code) génère des propositions de commentaires. Une méthode efficace pour diffuser sa veille sans y passer des heures !
Gonzalo Ayuso explique comment exposer une API REST existante via le protocole MCP (Model Context Protocol) pour la rendre utilisable par des agents IA (comme Claude Code ou Cursor) sans modifier l'API originale. En utilisant FastMCP, il crée une couche d'adaptation légère qui traduit les appels MCP en requêtes HTTP vers une API Flask simple de gestion de notes (CRUD). Ainsi, les outils IA peuvent interagir avec l'API comme s'il s'agissait d'une interface native, tout en conservant l'infrastructure REST intacte. Une solution élégante pour intégrer des APIs legacy aux workflows d'IA.
L’article questionne les estimations souvent alarmistes sur l’empreinte carbone de l’IA, soulignant le manque de transparence des géants comme OpenAI ou Google. Entre 0,1 et 0,2 % de la consommation électrique mondiale (soit bien moins que les idées reçues), les chiffres varient énormément selon les modèles : de 0,05 Wh à 14 Wh par requête, et jusqu’à 1 kWh pour générer 5 secondes de vidéo. L’auteur critique l’absence de données fiables et l’opacité des acteurs du secteur, tout en rappelant que l’impact écologique ne doit pas occulter d’autres enjeux (propriété intellectuelle, concentration du pouvoir, etc.). Une réflexion nuancée sur un débat trop souvent simplifié.
L'auteur explique pourquoi Ruby on Rails est devenu, presque par hasard, le framework parfait pour travailler avec des LLM (Large Language Models). Grâce à ses conventions strictes (Convention over Configuration), sa structure prévisible et son langage Ruby proche du naturel, Rails permet aux IA de comprendre et modifier le code sans instructions détaillées. Un exemple concret montre comment un LLM a ajouté un champ à un modèle Rails en quelques minutes, simplement en suivant les conventions connues. L'auteur souligne aussi l'efficacité de Rails pour l'IA : centralisation du schéma de données dans schema.rb, code déclaratif et dense, et Hotwire pour une interactivité côté serveur simplifiée. En résumé, Rails amplifie l'expertise collective des développeurs tout en réduisant les risques d'erreurs pour les IA.
L'auteur s'interroge sur l'impact de l'IA dans le développement logiciel, notamment sur la perte des compétences critiques comme le debugging ou l'évaluation critique du code. Il évoque son propre parcours, où des "vieux cons" avaient tort de rejeter les bases de données ou les outils modernes, tout en se demandant s'il ne reproduit pas les mêmes erreurs en supervisant aveuglément l'IA. Un exemple concret illustre ce dilemme : un diff généré par IA, techniquement impeccable mais conceptuellement faux, révèle l'importance du taste et du jugement, des qualités que l'IA ne peut pas encore transmettre. L'article souligne que l'IA excelle en productivité, mais que la sagesse de savoir ne pas construire certaines choses reste humaine. Une réflexion pertinente sur l'avenir du métier de développeur.
Cet article explore le fonctionnement des coding agents, des outils qui combinent un modèle de langage (LLM) avec des capacités supplémentaires via des outils appelables. L'auteur explique comment les LLM, comme GPT ou Claude, génèrent du texte à partir de tokens (unités de traitement facturées), et comment les coding agents optimisent les interactions en utilisant des prompts structurés en conversation et en exploitant le token caching pour réduire les coûts. Un guide technique utile pour comprendre les mécanismes derrière ces assistants IA.
Cet article explore la beauté mathématique derrière la Binary Cross-Entropy (BCE), une fonction clé en apprentissage automatique, révélant comment des siècles de découvertes (de Bernoulli à la rétropropagation) convergent vers une formule élégante : p − y. L’auteur souligne l’universalité des mathématiques, comparant cette simplicité à des lois physiques comme celles de Maxwell, et interroge les limites des IA actuelles (comme les LLMs) face à la compréhension du monde réel. Yann LeCun y est cité pour sa vision d’une IA plus proche de la cognition humaine via son World Model (JEPA), bien que des défis majeurs (apprentissage en un coup, généralisation) persistent. Une réflexion poétique sur l’harmonie entre maths, nature et intelligence artificielle.
L'auteur partage son expérience avec un outil Kubernetes simplifié, kubectl-debug-pvc, développé en deux sessions de 30 minutes grâce à l'IA (Claude Opus). Face à un besoin réel en production (accéder à un volume PVC en ReadWriteOnce sans shell), il contourne les limites de kubectl debug avec une solution automatisée via un plugin Krew. Le projet, plus léger que son prédécesseur PodSweeper, illustre l'efficacité de l'IA pour des tâches ciblées, tout en soulignant l'importance de la supervision humaine. Une démonstration de la puissance des outils GenAI pour le DevOps ! 🚀
Trois scènes tirées d’une même semaine illustrent comment l’IA et les LLM bouleversent déjà l’organisation des équipes tech : un développeur frontend qui produit aussi du backend grâce à l’IA, un product manager capable de livrer lui-même une fonctionnalité, et un ingénieur senior qui passe moins de temps à coder qu’à superviser des systèmes automatisés. À travers ces situations ordinaires mais révélatrices, l’auteur questionne la pertinence des modèles classiques d’équipes (squads spécialisées, rôles bien séparés) face à des outils qui élargissent les capacités individuelles et déplacent la valeur vers la supervision, la compréhension du produit et la prise de décision plutôt que l’écriture directe de code.
Compte rendu de l’édition 2026 de Touraine Tech, conférence technologique tenue les 12 et 13 février à Tours, qui met en avant plusieurs interventions marquantes autour de l’IA, du cloud et des pratiques de développement. L’article revient notamment sur des sujets comme les architectures multi-agents pour organiser des systèmes d’IA, les serveurs MCP permettant à un LLM d’interagir de manière structurée avec des API, ou encore le framework Diátaxis pour améliorer la qualité et la maintenabilité de la documentation technique. D’autres conférences abordent l’expérience développeur et l’impact de la charge cognitive sur la performance des équipes, ainsi que des retours d’expérience sur l’évolution d’architectures logicielles et l’exploitation d’infrastructures bare-metal comme un cloud, illustrant les grandes tendances actuelles autour de la souveraineté numérique, de la sécurité des données et de la maturité croissante de l’intelligence artificielle.
Cet article de Towards Data Science explore le problème de la "boîte noire" dans le code généré par l'IA. Bien que l'IA améliore initialement la productivité des équipes de développement, le code généré devient rapidement difficile à maintenir en raison de son manque de structure. Les principaux problèmes incluent la tendance à tout regrouper dans un seul module, les dépendances circulaires et implicites, l'absence de contrats explicites et une documentation qui explique l'implémentation plutôt que l'utilisation. Un exemple concret illustre comment une génération non structurée peut créer un système de notifications monolithique difficile à modifier, contrairement à une approche structurée qui décompose le système en composants indépendants. L'article souligne que le problème n'est pas l'IA en soi, mais plutôt l'architecture résultante.