Ce billet de blog résume le troisième et dernier jour de la conférence DevoxxFR 2026, marqué par la présentation d’une session sur le scheduling dans Kubernetes par l’auteur. L’intervention, axée sur la simplification de concepts comme les requests, limits, QoS et PriorityClasses, a été saluée pour sa clarté, son humour et ses démos techniques réussies, avec une note moyenne de 4,91/5. L’auteur évoque aussi son expérience sur scène, entre stress et satisfaction, ainsi qu’un enregistrement au Studio Devoxx où il a discuté de Kubernetes et de son livre.
La journée a également inclus une conférence sur l’optimisation de la JVM dans Kubernetes, abordant des thèmes comme le warmup, la compilation tiered, l’impact des ressources CPU sur le démarrage des applications Java, et les évolutions récentes de Java pour mieux s’adapter aux conteneurs. L’auteur souligne l’importance des fondamentaux et des démonstrations pratiques pour illustrer ces concepts.
Enfin, le billet reflète l’épuisement post-conférence et la satisfaction d’avoir partagé des connaissances techniques de manière accessible, tout en notant l’engagement positif du public et des retours encourageants.
Deuxième journée orientée vers des retours d’expérience concrets autour de l’IA et de son industrialisation, avec un fil conducteur clair : privilégier des approches pragmatiques, bien dimensionnées et intégrées à l’écosystème existant plutôt que des solutions “tout gros modèle”. Un exemple marquant est l’usage de petits modèles spécialisés (SLM/TLM) combinés à du RAG et une orchestration légère pour gérer un support client efficacement sans explosion des coûts.
Un autre point fort concerne l’“agentic coding” vu comme un sujet de platform engineering : son adoption à grande échelle impose de repenser workflows, gestion du contexte et standardisation via des outils ou marketplaces internes, avec une approche spec-driven (spécifications versionnées lisibles par humains et machines).
La journée aborde aussi des problématiques d’infrastructure à grande échelle (ex. gestion de centaines de millions d’emails) et des réflexions plus larges sur le rôle politique de la tech, tout en restant ancrée dans des retours terrain et des outils concrets pour les devs et ops.
Jujutsu (jj) est présenté comme une alternative moderne à Git, conçue pour simplifier la gestion des commits, des branches et des opérations complexes comme le rebase. L’outil se distingue par sa capacité à fonctionner en parallèle de Git, permettant aux développeurs de l’adopter sans impacter leur équipe. L’auteur partage son expérience de présentation à Devoxx France, illustrant les fonctionnalités clés de jj à travers des démos pratiques.
Le clonage d’un dépôt avec jj est détaillé, montrant comment initialiser un projet en mode "colocated" pour combiner les avantages des deux systèmes. Les revsets, équivalents des commits Git, sont mis en avant avec une visualisation claire de l’historique, incluant identifiants, auteurs, dates et messages. L’outil introduit aussi des concepts comme les bookmarks (remplaçant les branches) et l’operation log pour suivre les modifications.
Enfin, l’article aborde des fonctionnalités avancées comme l’absorption automatique des changements (absorb), le rebase simplifié et la gestion des conflits, tout en proposant des astuces de configuration pour optimiser l’expérience utilisateur. Des ressources complémentaires sont suggérées pour approfondir l’apprentissage.
Retour d’expérience du DevFest Nantes 2025 décrivant un événement dense et stimulant, marqué par une forte participation des équipes et une grande diversité de formats (conférences, ateliers, Unconference favorisant les échanges ouverts). L’accent est mis sur la richesse des discussions techniques et humaines, ainsi que sur l’intérêt de ces formats interactifs pour partager des retours concrets et confronter les pratiques entre professionnels.
Parmi les sujets abordés, plusieurs thématiques ressortent : l’observabilité avec OpenTelemetry, les enjeux d’architecture logicielle (scalabilité, résilience, sécurité), l’impact environnemental du numérique et les pratiques de sobriété, ainsi que des retours d’expérience sur l’organisation des équipes et les méthodes de travail. Certaines conférences utilisent des analogies issues du jeu vidéo pour vulgariser des concepts complexes d’architecture ou de monitoring, rendant ces sujets plus accessibles et concrets.
L’ensemble est perçu comme inspirant et directement applicable, avec des idées réutilisables en entreprise, aussi bien sur le plan technique que sur les dimensions organisationnelles et sociétales du développement logiciel.
L’article de Rahul Garg, ingénieur principal chez Thoughtworks, propose d’encapsuler les standards d’une équipe sous forme d’instructions versionnées et partagées, afin d’améliorer la cohérence des résultats générés par les assistants IA. L’idée centrale est de transformer les connaissances tacites des équipes (conventions de code, bonnes pratiques de sécurité, etc.) en artefacts exécutables, réduisant ainsi la dépendance aux experts et les variations de qualité selon les utilisateurs.
L’auteur souligne que les pratiques informelles, acquises par l’expérience, créent des disparités dans l’utilisation de l’IA, même au sein d’une même équipe. Sans cadre formalisé, les prompts varient selon les individus, ce qui nuit à la standardisation des livrables. La solution envisagée consiste à externaliser ces règles dans des documents versionnés, accessibles à tous, pour garantir une application uniforme des standards.
Enfin, Garg illustre ce problème avec des exemples concrets : un développeur senior inclut des détails précis dans ses requêtes (style fonctionnel, gestion des erreurs, conventions de nommage), tandis qu’un junior se contente de demandes vagues, produisant des résultats moins alignés avec les attentes de l’équipe. L’objectif est donc de systématiser ces instructions pour fluidifier le travail collaboratif avec l’IA.
Compte-rendu du premier jour de DevoxxFR 2026 marqué par une forte présence de l’IA le matin, puis des sujets plus variés l’après-midi, mêlant technique, retours d’expérience et thématiques humaines. La keynote d’ouverture insiste sur une approche critique de l’IA : elle amplifie les capacités humaines mais reste biaisée, coûteuse et dépendante du jugement humain, loin d’une intelligence générale autonome.
Plusieurs interventions montrent l’impact concret de l’IA sur les pratiques : dans les échecs, elle devient un outil d’apprentissage qui élève le niveau global plutôt qu’un simple adversaire ; dans le développement, elle permet d’explorer des approches “spec-driven”, même si les formats pratiques peuvent être victimes de leur succès. Un talk technique sur une base de données analytique détaille la chaîne complète d’exécution (parsing, optimisation, planification), illustrant la complexité et les gains de performance des moteurs modernes.
Les sessions plus transverses apportent des réflexions utiles sur le travail et l’organisation : une intervention sur le rapport au temps souligne les effets négatifs de l’accélération et du multitâche, ainsi que le paradoxe d’une IA censée faire gagner du temps mais qui tend à augmenter la charge de travail. D’autres formats, comme un quiz Kubernetes, rappellent l’importance de revisiter ses connaissances, même sur des sujets maîtrisés.
Enfin, des sujets humains et organisationnels sont abordés, notamment la maternité dans la tech, avec des pistes concrètes pour améliorer l’inclusion et les conditions de travail. L’événement met aussi en avant l’importance des échanges informels (“hallway track”) et des discussions entre pairs, considérés comme une part essentielle de la valeur de la conférence. (
Dockman est un gestionnaire Docker Compose conçu pour simplifier l'administration des conteneurs tout en conservant une approche native et légère. Contrairement à des outils comme Portainer ou Dockge, il permet de gérer non seulement les stacks, mais aussi les images, volumes et réseaux associés, le tout via une interface web épurée. L'outil se distingue par son respect des fichiers locaux, évitant de les enfermer dans une base de données ou un dossier caché, et par sa légèreté, idéale pour les homelabs.
L'auteur souligne que Dockman répond à un besoin précis : éviter la complexité des interfaces surchargées ou des fonctionnalités superflues, tout en offrant un contrôle direct sur les configurations Docker Compose. Cependant, certaines limites sont à noter, comme l'absence de multi-facteur natif pour l'authentification ou une gestion multi-hôtes encore en version bêta. L'installation repose sur un fichier compose simple, avec des variables d'environnement pour activer la sécurité de base.
Disponible sur GitHub, Dockman se positionne comme une alternative pragmatique pour les utilisateurs souhaitant une solution minimaliste et efficace, tout en restant conscient de ses contraintes actuelles.
L’article explore la question de l’espace réellement occupé par un fichier sur un disque, au-delà de sa taille brute. L’auteur explique que la place dépend de plusieurs facteurs : les métadonnées du système de fichiers, l’allocation par blocs (clusters) indivisibles, et la fragmentation. Par exemple, un fichier d’1 octet peut occuper plusieurs kilo-octets en raison de ces contraintes techniques.
L’auteur détaille aussi les unités de mesure en informatique, distinguant les préfixes binaires (kibi-octet, mébi-octet) des préfixes décimaux (kilo-octet, méga-octet), et souligne les différences de calcul selon les systèmes de fichiers comme NTFS. Il illustre ces concepts avec des exemples concrets et une expérience pratique pour estimer l’espace réel d’un dossier.
Enfin, l’article aborde l’application concrète de ces notions dans un projet de création d’images disque, où la taille optimale doit être calculée avec précision. L’auteur partage des chiffres réels et des méthodes pour estimer l’espace occupé, tout en invitant à approfondir le sujet.
Web-Check est un outil open source d'OSINT (Open Source Intelligence) conçu pour analyser en profondeur n'importe quel site web. Il permet d'obtenir des informations détaillées sur l'infrastructure, la sécurité et les technologies utilisées par un site, comme les adresses IP, les certificats SSL, les en-têtes HTTP, les cookies, les ports ouverts ou encore les extensions DNS sécurisées.
L'outil propose une interface centralisée affichant des données techniques variées, utiles pour évaluer la performance, la sécurité ou l'empreinte carbone d'un site. Une version hébergée est accessible via web-check.as93.net, et le projet peut être déployé localement via Docker ou des plateformes comme Netlify et Vercel.
Email.md simplifie la création d’emails responsive en utilisant le Markdown, évitant ainsi la complexité du HTML traditionnel. L’outil propose des templates prédéfinis et un éditeur visuel pour générer rapidement des emails adaptés aux mobiles.
Un exemple concret est fourni avec un modèle de confirmation d’email, incluant un préheader, un thème sombre et des blocs structurés (en-tête, contenu, appel à l’action, pied de page). Les utilisateurs peuvent personnaliser facilement le texte et les éléments visuels.
Le projet est open source, disponible sur GitHub, et s’installe via npm pour une intégration fluide dans les workflows de développement.
Proxelar est un proxy MITM (Man-in-the-Middle) programmable écrit en Rust, conçu pour intercepter, inspecter et modifier le trafic HTTP/HTTPS. Il permet de transformer les requêtes et réponses en temps réel via des scripts Lua, offrant ainsi un outil puissant pour le débogage d'API, l'analyse de services tiers ou le test d'applications mobiles. Le projet propose plusieurs modes de fonctionnement (proxy avant/arrière) et des interfaces variées (terminal, TUI interactive, interface web).
Parmi ses fonctionnalités clés, Proxelar inclut l'interception automatique des connexions HTTPS grâce à une autorité de certification intégrée, ainsi qu'un système de filtrage avancé pour analyser les requêtes. Il prend en charge l'inspection des flux WebSocket et permet une installation simplifiée du certificat racine via une page dédiée. Le projet est distribué sous licence MIT et peut être installé via Cargo, Homebrew ou Docker.
Le dépôt GitHub du projet met en avant des contributions actives, avec des mises à jour régulières et une documentation en constante amélioration, incluant des exemples de scripts Lua pour personnaliser le comportement du proxy.
Algorithm Visualizer est une plateforme interactive en ligne qui permet de visualiser et comprendre des algorithmes grâce à des représentations graphiques. Le site propose des démonstrations en temps réel d'algorithmes classés par catégories (comme le backtracking ou la programmation dynamique), facilitant leur apprentissage pour les étudiants, enseignants ou professionnels.
L'outil s'appuie sur des bibliothèques de visualisation en plusieurs langages de programmation, extraites directement du code source. Des ressources complémentaires, comme des tutoriels et des articles, sont également disponibles pour approfondir les concepts.
Le projet est open source et collaboratif, avec plusieurs dépôts GitHub dédiés à l'application web (développée en React), au serveur backend et aux algorithmes visualisés. Les contributions sont encouragées pour enrichir la base de données ou améliorer les fonctionnalités.
CodeBurn est un outil en ligne de commande qui permet de visualiser et analyser l'utilisation des tokens par les IA de codage comme Claude Code, Codex ou Cursor. Il offre un tableau de bord interactif en TUI avec des graphiques et des données détaillées par modèle, tâche ou projet, incluant le taux de réussite en une seule tentative et les coûts associés. L'outil se distingue par son approche sans wrapper ni proxy, en lisant directement les données de session depuis le disque, et supporte l'export en CSV ou JSON.
Disponible sous forme d'application macOS native ou via npm, CodeBurn fonctionne sans clé API et s'appuie sur LiteLLM pour la tarification. Il permet des analyses sur différentes périodes (aujourd'hui, 7 jours, mois, etc.) et inclut des fonctionnalités comme l'optimisation pour identifier les gaspillages ou la comparaison de modèles. Les commandes simples comme codeburn today ou codeburn report -p 30days facilitent son utilisation.
Cet outil permet de générer des diagrammes d'architecture système esthétiques et thématiques sombres sous forme de fichiers HTML/SVG autonomes, directement via une compétence pour l'IA Claude. Il suffit de décrire son architecture en langage naturel pour obtenir un diagramme professionnel en quelques secondes, sans compétences en design ni logiciel spécifique.
L'installation repose sur trois étapes simples : télécharger un fichier ZIP, l'importer dans les paramètres des compétences de Claude (nécessitant un abonnement Pro ou supérieur), puis décrire son architecture via une analyse automatique de codebase, une rédaction manuelle ou une demande de modèle générique. L'IA produit ensuite un fichier HTML prêt à l'emploi, modifiable à la volée par des instructions en conversation.
Le projet propose des exemples concrets pour des cas d'usage variés (applications web, architectures serverless AWS ou microservices) et permet des itérations rapides en ajustant la description initiale. Les fichiers générés sont partageables et compatibles avec tout navigateur.
Ce dépôt GitHub propose un fichier CLAUDE.md conçu pour réduire la verbosité des réponses de l'IA Claude, limitant ainsi le nombre de tokens utilisés dans les workflows intensifs. Le fichier s'ajoute directement à un projet et impose des règles strictes pour des réponses concises, comme éviter les formules de politesse superflues ou les redondances. Il cible particulièrement les pipelines d'automatisation ou les tâches répétitives où l'économie de tokens est significative.
Le projet met en avant deux méthodes d'utilisation : coller les règles directement dans une session de chat pour une utilisation ponctuelle, ou intégrer le fichier CLAUDE.md dans un projet pour une application automatique et systématique. Les benchmarks, réalisés sur Claude, montrent une réduction des tokens en sortie, mais soulignent que l'ajout du fichier augmente légèrement les tokens en entrée à chaque interaction.
Cependant, l'efficacité dépend du contexte : le fichier est avantageux pour des flux de travail volumineux ou des sessions persistantes, mais peut devenir contre-productif pour des requêtes courtes ou des sessions éphémères. Les résultats sur d'autres modèles (comme Llama ou Mistral) ne sont pas documentés, et l'approche reste moins robuste que des solutions structurées comme le mode JSON ou les schémas d'outils.
musicForProgramming() est une série de mixes conçus pour accompagner des activités nécessitant concentration, comme la programmation. Le site propose 77 épisodes, totalisant plus de 114 heures de musique, avec des titres variés allant de l'ambient à l'électronique. Chaque épisode est disponible en lecture directe ou en téléchargement, avec des métadonnées détaillées comme la durée et la taille des fichiers.
Contrapunk est un générateur d'harmonie MIDI en temps réel et un convertisseur guitare vers MIDI, basé sur des règles strictes de contrepoint. Développé en Rust, il offre une latence inférieure à 10 ms, idéale pour les performances live, et fonctionne sur navigateur ou en application native. L'outil est gratuit, sans inscription, et compatible avec les contrôleurs MIDI sous Chrome.
Le projet met en avant huit modes d'harmonie (Palestrina, Bach, Jazz, etc.) et 28 modes d'échelle, avec une gestion avancée des voix pour éviter les parallèles ou les croisements. Il prend en charge l'entrée guitare via détection de hauteur et suivi d'attaque, avec une calibration automatique.
Disponible en open source (licence MIT), Contrapunk s'appuie sur Rust, SvelteKit et Tauri pour une exécution multiplateforme. Une version cloud est en développement, avec accès anticipé pour les intéressés.
Ce tutoriel explique comment configurer Postfix en tant que relais SMTP authentifié sur un serveur Debian 13 en réseau local, sans accès direct à Internet. L’objectif est d’envoyer des e-mails (notifications système ou applications locales) via un relais SMTP externe sécurisé. L’auteur privilégie Postfix plutôt que Nullmailer pour sa familiarité, tout en soulignant la simplicité relative de ce dernier.
L’installation repose sur les dépôts Debian, avec des paquets comme postfix, bsd-mailx pour les tests en ligne de commande, et sasl2-bin pour l’authentification. La configuration de base dans /etc/postfix/main.cf limite l’envoi aux machines locales (mynetworks = 127.0.0.1/32) et définit un relais SMTP externe (relayhost) avec chiffrement TLS. Les identifiants de connexion sont stockés dans /etc/postfix/sasl_passwd.
L’auteur met en garde contre les restrictions des fournisseurs comme Gmail, qui imposent des configurations complexes pour autoriser l’envoi via relais. La solution proposée repose sur un relais personnalisé (ex. mail.microlinux.fr:465) avec authentification SASL, garantissant une transmission sécurisée des e-mails depuis un environnement local.
Ce billet présente une méthode pour déployer rapidement des applications Symfony en production grâce à une combinaison d'outils modernes. L'auteur souligne d'abord l'accélération du développement grâce à l'IA, qui permet de créer des prototypes fonctionnels en quelques heures, mais souligne que l'infrastructure doit suivre pour éviter un goulot d'étranglement. Il propose ensuite Once, un outil open source de 37signals, qui automatise le déploiement d'applications Docker sur un seul serveur via un reverse proxy intégré et une gestion automatique des certificats SSL.
L'article détaille l'installation simplifiée de Once, qui repose sur Docker et Kamal, et son fonctionnement avec un wildcard DNS pour attribuer automatiquement un sous-domaine à chaque nouvelle application déployée. Cette approche élimine les configurations manuelles de reverse proxy ou de certificats, permettant un déploiement en quelques minutes après un simple git push.
Enfin, l'auteur explique pourquoi il a adopté FrankenPHP, un runtime PHP intégré à Caddy, qui remplace avantageusement la stack classique (Nginx, PHP-FPM, Mercure) par un seul conteneur. Grâce à l'IA, la génération et le débogage des fichiers Dockerfile sont devenus accessibles, rendant cette solution à la fois performante et simple à mettre en œuvre pour des projets PHP modernes.
Les LiveComponents de Symfony offrent une solution efficace pour créer des interfaces dynamiques sans recourir à des bibliothèques front-end lourdes, en s'appuyant sur des attributs Twig et une stack simple. Leur simplicité d'utilisation, comme l'ajout d'attributs pour des fonctionnalités comme l'édition inline ou le live reload, les rend attractifs pour les développeurs back-end peu enclins au développement front-end. Cependant, leur utilisation intensive révèle des limites, notamment en matière de sérialisation des objets Doctrine complexes, comme les collections ou les relations entre entités.
L'auteur illustre ces limites avec un exemple concret où la sérialisation d'une collection d'entités Loan échoue, obligeant à recourir à des solutions comme l'activation du sérialiseur ou la définition de types concrets. Cette problématique, bien que simplifiée par rapport à une architecture front-end classique, montre que la promesse d'une solution "tout-en-un" s'effrite face à des cas d'usage avancés, comme la gestion de fichiers ou de collections complexes. Les LiveComponents, bien que puissants pour des démonstrations, révèlent des contraintes techniques qui peuvent compliquer leur adoption à grande échelle.