Astuce pour obtenir une revue de code par IA en 10 secondes : ajoutez ".diff" à la fin de l'URL d'une PR GitHub, copiez le diff et collez-le dans un LLM comme Claude ou ChatGPT pour une première analyse rapide. Cela permet de détecter des problèmes évidents et d'améliorer le code avant une revue humaine, réduisant ainsi les temps de cycle et facilitant le travail des réviseurs. Une méthode simple et efficace sans besoin d'outils spécifiques.
Anton Zaides remet en question cinq dogmes courants en ingénierie logicielle dans un article intitulé "5 engineering dogmas it's time to retire". Il aborde des pratiques comme "ne pas réinventer la roue" en utilisant des packages existants, l'obligation de revue de code pour chaque changement, les sprints de 2-4 semaines, l'utilisation systématique de feature flags et la croyance que le code nécessitant des commentaires est trop complexe. Zaides explore les avantages et inconvénients de ces pratiques, en soulignant les risques de dépendances externes, les lenteurs des revues de code obligatoires et les alternatives comme le pair programming. Il encourage une réflexion critique sur ces normes établies.
Comment bien scaler les code reviews (et éviter les pièges)
À l’origine, une petite équipe peut se permettre de merger directement dans la branche principale, mais dès que le projet grandit, les code reviews deviennent essentielles pour maintenir la qualité du code. Pourtant, mal gérées, elles ralentissent les équipes (délais serrés, feedbacks sur des détails mineurs), génèrent des conflits (préférences personnelles, ton toxique) et favorisent les incompréhensions (revues asynchrones, PR trop volumineuses). Pour y remédier, auteurs et relecteurs doivent adopter des bonnes pratiques : PR petites et ciblées, feedback constructif et documenté, respect du temps de chacun (réponse sous 24h, slots dédiés), et automatisation (CI, outils comme CodeRabbit pour les checks routiniers). L’objectif ? Améliorer la qualité sans bloquer la vélocité : privilégier le "bon assez" plutôt que la perfection, utiliser des checklists, et résoudre les désaccords en direct. Les outils modernes (GitHub/GitLab, AI comme CodeRabbit) optimisent le workflow en détectant les bugs tôt et en résumant les changements, libérant les humains pour des revues plus stratégiques. En résumé : des revues rapides, bienveillantes et outillées pour un code sain et des équipes motivées.
L'article explore la création d'agents autonomes basés sur l'intelligence artificielle pour automatiser des tâches quotidiennes, comme l'analyse des demandes de tirage et la génération de notes de version. Contrairement aux scripts d'automatisation traditionnels, ces agents utilisent des modèles de langage avancés pour interpréter et prendre des décisions contextuelles. L'article détaille les outils clés tels qu'AgentGPT, LangChain, et le Vercel AI SDK, et explique comment les intégrer de manière sécurisée dans des environnements de développement. Enfin, il propose un guide pratique pour mettre en place un agent capable de répondre à des déclencheurs spécifiques et de s'intégrer dans un pipeline CI/CD pour améliorer l'efficacité des développeurs.
Tout est dans le titre
Tout est dans le titre
Tout est dans le titre
Tout est dans le titre
Tout est dans le titre
Tout est dans le titre
Tout est dans le titre
Tout est dans le titre
Il s'agit d'un ensemble de bonnes pratiques et de conventions pour commenter utilement du code écrit par d'autres (revue de code, etc.)
Je suis totalement d'accord :)
L'auteur plaide pour le remplacement de la revue de code (donc après la production du code) par la revue de conception (donc avant d'écrire le code - après que le dév ait réfléchi au minimum à ce qu'il compte faire)
Les bonnes pratiques de la BBC pour les revues de code
Comment les équipes d'ingénieurs de la BBC envisagent les revues de code
Tout est dans le titre
Tout est dans le titre