Kevin Murphy partage sa méthode pour lire et évaluer les demandes de pull request (PR). Il explique quand il préfère les examiner (au début ou à la fin de la journée, entre les réunions, etc.), ce qu'il cherche (le but de la PR, son état d'avancement), pourquoi il les examine (demande explicite, expertise, désir d'apprendre) et comment il adapte son approche en fonction de l'auteur. Son objectif est d'aider à faire avancer le travail vers la production, de partager des connaissances et de stimuler la réflexion.
L'article critique l'approche des outils d'analyse statique qui évaluent le couplage en comptant les dépendances, ce qui peut être trompeur. L'auteur propose une alternative : le modèle de couplage équilibré, qui évalue les dépendances en fonction de leur impact pratique. Ce modèle identifie quatre types de couplage, classés par poids croissant : le couplage contractuel (le plus léger), le couplage modèle, le couplage fonctionnel et le couplage intrusif (le plus lourd). L'idée est de se concentrer sur la nature des dépendances plutôt que sur leur nombre pour améliorer la conception logicielle.
Ce billet présente 10 prompts d'IA prêts à l'emploi pour accélérer la livraison de logiciels en éliminant les goulots d'étranglement courants. Il explique comment l'IA peut être utilisée pour améliorer les processus d'examen de code, de sécurité et de documentation, en fournissant des exemples concrets de prompts pour des tâches spécifiques comme la détection d'erreurs logiques, l'identification des changements cassants et l'analyse des résultats de scans de sécurité. L'objectif est d'aider les équipes à améliorer leur efficacité et à livrer des logiciels plus rapidement.
Dans cet article, Samy Djemili partage les leçons apprises après trois années de revues de code. Il souligne que les revues efficaces ne se concentrent pas uniquement sur la recherche de bugs, mais aussi sur la compréhension du problème résolu, la taille des PRs (préférant les petites pour une meilleure qualité de revue), la critique constructive du code plutôt que de la personne, l'explication des raisons derrière les suggestions, et l'utilisation de prefixes pour clarifier l'importance des commentaires. Une lecture essentielle pour améliorer ses pratiques de revue de code.
Dans cet article, l’auteur raconte comment il a transformé son workflow de développement en confrontant systématiquement deux IA — Claude Code pour générer et planifier le code, et Codex pour faire une code review objective — ce qui améliore nettement la qualité du code produit : il utilise un fichier CLAUDE.md pour configurer les attentes d’emblée, exige des plans avant l’écriture, et fait reboucler les remarques de Codex vers Claude Code jusqu’à alignement, tout en s’appuyant sur des tests, du linting et un jugement humain pour garder le contrôle.
L’article explique comment automatiser l’application des guides de style de code en combinant l’outil « Continue.dev » avec des pipelines d’intégration continue comme GitHub Actions afin de réduire la charge des revues manuelles, en définissant des règles de style lisibles par machine, en intégrant des vérifications en temps réel dans l’éditeur et en ajoutant des contrôles dans la CI pour bloquer les pull requests non conformes, ce qui permet de cibler jusqu’à ~90 % des vérifications de style sans intervention humaine ; il détaille la configuration de Continue avec des règles personnalisées, l’architecture du workflow CI ainsi que des conseils pour affiner les règles et mesurer l’impact.
Astuce pour obtenir une revue de code par IA en 10 secondes : ajoutez ".diff" à la fin de l'URL d'une PR GitHub, copiez le diff et collez-le dans un LLM comme Claude ou ChatGPT pour une première analyse rapide. Cela permet de détecter des problèmes évidents et d'améliorer le code avant une revue humaine, réduisant ainsi les temps de cycle et facilitant le travail des réviseurs. Une méthode simple et efficace sans besoin d'outils spécifiques.
Anton Zaides remet en question cinq dogmes courants en ingénierie logicielle dans un article intitulé "5 engineering dogmas it's time to retire". Il aborde des pratiques comme "ne pas réinventer la roue" en utilisant des packages existants, l'obligation de revue de code pour chaque changement, les sprints de 2-4 semaines, l'utilisation systématique de feature flags et la croyance que le code nécessitant des commentaires est trop complexe. Zaides explore les avantages et inconvénients de ces pratiques, en soulignant les risques de dépendances externes, les lenteurs des revues de code obligatoires et les alternatives comme le pair programming. Il encourage une réflexion critique sur ces normes établies.
Comment bien scaler les code reviews (et éviter les pièges)
À l’origine, une petite équipe peut se permettre de merger directement dans la branche principale, mais dès que le projet grandit, les code reviews deviennent essentielles pour maintenir la qualité du code. Pourtant, mal gérées, elles ralentissent les équipes (délais serrés, feedbacks sur des détails mineurs), génèrent des conflits (préférences personnelles, ton toxique) et favorisent les incompréhensions (revues asynchrones, PR trop volumineuses). Pour y remédier, auteurs et relecteurs doivent adopter des bonnes pratiques : PR petites et ciblées, feedback constructif et documenté, respect du temps de chacun (réponse sous 24h, slots dédiés), et automatisation (CI, outils comme CodeRabbit pour les checks routiniers). L’objectif ? Améliorer la qualité sans bloquer la vélocité : privilégier le "bon assez" plutôt que la perfection, utiliser des checklists, et résoudre les désaccords en direct. Les outils modernes (GitHub/GitLab, AI comme CodeRabbit) optimisent le workflow en détectant les bugs tôt et en résumant les changements, libérant les humains pour des revues plus stratégiques. En résumé : des revues rapides, bienveillantes et outillées pour un code sain et des équipes motivées.
L'article explore la création d'agents autonomes basés sur l'intelligence artificielle pour automatiser des tâches quotidiennes, comme l'analyse des demandes de tirage et la génération de notes de version. Contrairement aux scripts d'automatisation traditionnels, ces agents utilisent des modèles de langage avancés pour interpréter et prendre des décisions contextuelles. L'article détaille les outils clés tels qu'AgentGPT, LangChain, et le Vercel AI SDK, et explique comment les intégrer de manière sécurisée dans des environnements de développement. Enfin, il propose un guide pratique pour mettre en place un agent capable de répondre à des déclencheurs spécifiques et de s'intégrer dans un pipeline CI/CD pour améliorer l'efficacité des développeurs.
Tout est dans le titre
Tout est dans le titre
Tout est dans le titre
Tout est dans le titre
Tout est dans le titre
Tout est dans le titre
Tout est dans le titre
Tout est dans le titre
Il s'agit d'un ensemble de bonnes pratiques et de conventions pour commenter utilement du code écrit par d'autres (revue de code, etc.)