Cet article explique comment utiliser MariaDB-Backup (Mariabackup) pour sauvegarder et restaurer des bases de données MariaDB ou MySQL de manière performante. Contrairement à mysqldump, qui effectue des sauvegardes logiques lentes, Mariabackup réalise des sauvegardes physiques "à chaud", plus rapides et adaptées aux environnements de production exigeants. Le tutoriel couvre l'installation, la création de sauvegardes, la restauration, les sauvegardes incrémentielles et les fonctions avancées. Il souligne aussi la différence entre sauvegardes logiques et physiques, ainsi que la compatibilité de Mariabackup avec les fonctionnalités spécifiques de MariaDB.
Ce tutoriel explique comment héberger une IA locale avec Ollama, un outil simplifiant le déploiement de modèles d'IA en local, et lui apprendre vos données via le RAG (Retrieval-Augmented Generation). L'auteur détaille l'installation d'Ollama sur une VM Linux, le téléchargement d'un modèle léger comme Gemma 3, et l'utilisation du RAG pour intégrer vos documents internes. Le processus est simplifié pour éviter les coûts élevés et la complexité des solutions cloud.
L'auteur explique avoir créé Bloggrify, un générateur de blog statique open source, pour plus de flexibilité après des expériences avec Wordpress, Joomla et Medium. Cependant, en 2026, il migre vers Writizzy, un autre de ses projets, pour plus de simplicité. Il aborde le dogfooding, les défis de l'open source, et la motivation à maintenir des projets peu utilisés. Bloggrify, bien que techniquement abouti, manque d'adoption, ce qui le démotive. Il partage ses réflexions sur l'avenir de ses projets, y compris Bloggrify, Writizzy et Hakanai.io.
Ce guide de SitePoint présente cinq modèles de prompts pour améliorer la qualité du code généré par les outils d'IA. Les problèmes courants comme les imports fantômes ou les erreurs d'architecture sont souvent dus à des prompts vagues. Les modèles proposés, tels que le "Context Priming" ou le "Constraint Injection", aident à structurer les demandes et à obtenir un code plus conforme aux conventions et aux besoins spécifiques. Chaque modèle est illustré par un exemple concret avant/après.
Scrapling est un framework de web scraping adaptatif qui gère tout, des requêtes simples aux crawls à grande échelle. Il apprend des changements de site web et relocalise automatiquement les éléments lorsque les pages sont mises à jour. Ses fetchers contournent les systèmes anti-bot comme Cloudflare Turnstile. Le framework de spider permet de réaliser des crawls concurrents, multi-sessions avec pause/reprise et rotation de proxy automatique, le tout en quelques lignes de Python. Il offre des crawls rapides avec des statistiques en temps réel et un streaming. Le projet est open source et disponible sur GitHub.
Oxfmt, un formateur de code compatible avec Prettier et développé en Rust, est désormais en version bêta. Plus rapide (30x plus que Prettier et 3x plus que Biome), il prend en charge plusieurs formats de fichiers, intègre le tri des imports et le support de Tailwind CSS, et offre une compatibilité totale avec Prettier. Utilisé par des projets comme Vue.js et Sentry, il est facile à installer et à migrer depuis Prettier.
La page cheat.sh/latency présente une infographie textuelle des temps de latence que tout programmeur devrait connaître, inspirée des "Latency Numbers Every Programmer Should Know" de Jeff Dean. Elle compare visuellement les temps de réponse de différentes opérations informatiques, allant de l'accès à la mémoire cache L1 (1ns) aux communications intercontinentales (jusqu'à 150ms). Un outil utile pour comprendre et visualiser les performances des systèmes informatiques.
Le projet "learn-claude-code" est un dépôt GitHub qui propose une série de 12 sessions progressives pour construire un agent d'IA similaire à Claude Code, en partant de zéro. Chaque session ajoute un mécanisme spécifique, avec pour objectif final de créer un agent autonome capable d'exécuter des tâches complexes. Le projet utilise un modèle de boucle minimal où l'utilisateur interagit avec un grand modèle de langage (LLM) qui peut exécuter des outils si nécessaire. Les sessions couvrent des concepts tels que l'ajout d'outils, la planification des tâches, la gestion de la mémoire, l'exécution en arrière-plan, la délégation de tâches à des agents collaborateurs, et plus encore. Le code est écrit en Python et est disponible sous licence MIT.
Cronboard est une application en ligne de commande pour gérer et planifier des tâches cron sur des serveurs locaux et distants. Elle permet d'ajouter, modifier, supprimer et visualiser l'état des tâches cron. Parmi ses fonctionnalités, on trouve l'autocomplétion des chemins, la validation des tâches, la gestion des connexions SSH, et la prise en charge des expressions spéciales comme @daily ou @yearly. Développé avec Textual, Python crontab, Paramiko et Cron descriptor, Cronboard est disponible via pip, Homebrew, uv ou AUR.
Ce billet de blog explore le concept de "Spec-Driven Development" (SDD) comme alternative à la méthode de "vibe coding" avec les outils d'IA de codage. L'auteur, travaillant dans l'ingénierie des paiements, explique que le SDD consiste à écrire une spécification structurée avant de laisser l'IA implémenter le code, contrairement à la méthode intuitive de "vibe coding" où l'on affine les prompts jusqu'à obtenir un résultat fonctionnel. L'article met en lumière les problèmes de perte de contexte et de dérive architecturale liés à l'utilisation excessive des prompts, surtout dans des systèmes critiques comme les paiements, où les failles de sécurité peuvent avoir des conséquences graves. Le SDD, avec des outils comme OpenSpec, permet de formaliser le processus de développement et d'éviter ces pièges.
La Specification Driven Development (SDD) est une approche de développement logiciel qui replace la spécification détaillée des exigences avant l’écriture du code comme artefact central du projet : cette spécification, souvent en texte structuré (ex. Markdown), décrit le comportement attendu du système et sert de source de vérité pour guider conception, implémentation et tests, contrastant avec les méthodes où les tests ou documents techniques viennent après le code ; historiquement issue d’une évolution des pratiques (TDD → BDD), elle vise à réduire les erreurs, ambiguïtés et malentendus entre parties prenantes en clarifiant l’intention dès le départ et en maintenant la documentation vivante et accessible dans le même dépôt que le code.
L'article explore la règle bien connue de ne pas déployer de nouvelles versions de logiciels le vendredi. L'auteur analyse les avantages et les inconvénients de cette pratique, en tenant compte du contexte métier, de la fréquence des releases et des pratiques techniques. Il souligne que cette règle peut être pertinente dans certains cas, comme pour les systèmes critiques ou les sites e-commerce, mais moins pour les systèmes où les risques et les menaces sont faibles. Il insiste également sur l'importance d'automatiser les processus de déploiement et de garantir la compatibilité descendante pour minimiser les risques. En conclusion, l'auteur suggère que la décision de déployer ou non le vendredi dépend largement du contexte spécifique de chaque organisation.
L'article décrit comment son travail en ingénierie logicielle a évolué avec l'utilisation d'outils d'IA comme Codex. Il explique que, bien qu'il n'écrive plus de code manuellement, il passe par des étapes rigoureuses de planification, de vérification et de test, en utilisant des agents pour générer des implémentations. Les tâches sont divisées en planification (25-35%), revue et tests (40-50%), et exécution par l'agent (15-25%). Les gains de productivité sont significatifs pour des tâches standard, mais les agents ont encore des limites dans des domaines comme les refactorisations architecturales complexes ou le débogage profond. Les contraintes actuelles incluent les limites de contexte et la dérive architecturale.
Dans cet article, Samy Djemili partage les leçons apprises après trois années de revues de code. Il souligne que les revues efficaces ne se concentrent pas uniquement sur la recherche de bugs, mais aussi sur la compréhension du problème résolu, la taille des PRs (préférant les petites pour une meilleure qualité de revue), la critique constructive du code plutôt que de la personne, l'explication des raisons derrière les suggestions, et l'utilisation de prefixes pour clarifier l'importance des commentaires. Une lecture essentielle pour améliorer ses pratiques de revue de code.
Andrew Nesbitt explique dans cet article les fichiers spéciaux que Git recherche dans les dépôts pour contrôler son comportement. Ces fichiers, comme .gitignore, .gitattributes, .lfsconfig et .gitmodules, sont commis avec le code et influencent la manière dont Git traite les fichiers. Par exemple, .gitignore définit les fichiers à ignorer, .gitattributes configure le traitement des fichiers spécifiques, .lfsconfig gère les paramètres de Git LFS, et .gitmodules configure les sous-modules. Ces fichiers sont essentiels pour les outils travaillant avec les dépôts Git.
Antoine Caron partage son expérience d'optimisation de son application open source de poker planning. Initialement, l'application pesait environ 123 Ko (JS + CSS) avec React 19, TanStack Router et Query, et Tailwind 4. En passant à Preact, en pré-compressant les fichiers avec Brotli, Zstd et Zopfli, et en optimisant Tailwind CSS, il a réduit le poids de l'application à environ 40 Ko, soit une réduction de 67%. Un excellent exemple d'optimisation web.
Outil CLI pour reprendre des sessions de codage avec l'IA entre différents outils (Claude, Copilot, Gemini, etc.). Permet de transférer l'historique de conversation, les modifications de fichiers et l'état de travail d'un outil à un autre. Fonctionne sans installation via npx continues ou peut être installé globalement. Prend en charge 14 agents de codage IA avec 182 combinaisons possibles de transfert.
Un article partageant un astuce Git issue des documents internes de la CIA, divulgués par WikiLeaks en 2017. La commande permet de supprimer en une seule ligne toutes les branches déjà fusionnées, sauf la branche courante et les branches principales comme "main" ou "develop". L'auteur propose également de créer un alias pour simplifier l'utilisation de cette commande. Une astuce utile pour garder son dépôt Git organisé.
Découvrez une collection exhaustive de serveurs MCP (Model Context Protocol) sur GitHub. Ce dépôt, nommé "awesome-mcp-servers", propose une liste curatée de serveurs prêts pour la production et expérimentaux, permettant aux modèles d'IA d'interagir avec des ressources locales et distantes via des implémentations standardisées. Les serveurs couvrent divers domaines comme l'accès aux fichiers, les connexions aux bases de données, les intégrations API, et bien plus. Le dépôt inclut également des clients, des tutoriels, et une communauté active. Une légende est fournie pour comprendre les différentes implémentations selon le langage de programmation, la portée, et le système d'exploitation.
L'article propose une nouvelle perspective sur l'intelligence artificielle (IA). Plutôt que de considérer l'IA comme un collègue autonome, l'auteur suggère de la voir comme une exosquelette, un outil qui amplifie les capacités humaines sans les remplacer. En s'appuyant sur des exemples concrets dans les domaines de la fabrication, de l'armée et de la réadaptation médicale, l'article montre comment les exosquelettes augmentent les capacités humaines tout en réduisant les blessures et la fatigue. Cette analogie est utilisée pour critiquer l'approche actuelle de l'IA en tant qu'agent autonome, soulignant que cette vision peut mener à des attentes irréalistes et des déceptions. L'auteur argue que l'IA, comme un exosquelette, devrait être vue comme un amplificateur des capacités humaines, travaillant en synergie avec elles plutôt qu'en remplacement.