Cet article explique comment exporter les métriques de MariaDB vers Alloy pour une visualisation dans Grafana. L’article détaille d’abord la création d’un utilisateur SQL dédié dans MariaDB, avec les droits nécessaires (PROCESS
, REPLICATION CLIENT
, SELECT
). Ensuite, il présente la configuration à ajouter dans le fichier /etc/alloy/config.alloy pour activer l’export des métriques via Prometheus, en utilisant un relabeling pour afficher le hostname plutôt que l’adresse locale. Après rechargement d’Alloy, les données sont visibles dans l’interface d’Alloy et peuvent être affichées dans Grafana via un dashboard dédié comme celui-ci. L’article est illustré par des captures d’écran de l’interface Alloy et du dashboard Grafana final.
L’article explique comment FrankenPHP a rendu obsolètes les stacks traditionnelles à base de Nginx + PHP-FPM, en offrant une solution plus simple, performante et moderne pour exécuter des applications PHP. L’auteur détaille son passage à une architecture Docker intégrant FrankenPHP (basé sur le serveur web Caddy) et PostgreSQL, mettant en avant plusieurs avantages clés : une isolation complète des services, une parité parfaite entre développement et production, et une expérience développeur optimisée (hot reload, HTTPS local automatique, débogage facilité avec Xdebug). FrankenPHP se distingue par son mode "worker", qui maintient l’application PHP en mémoire, éliminant ainsi les temps de démarrage à chaque requête. Le billet décrit aussi l’utilisation de Docker multi-stage pour générer des images légères et sécurisées, et l’importance d’une configuration adaptée pour le développement (logs détaillés, désactivation du cache) comme pour la production (optimisation des performances). En résumé, FrankenPHP simplifie la stack technique tout en améliorant significativement les performances et la productivité. Une lecture utile pour les développeurs PHP souhaitant moderniser leur environnement.
Ahmad Shadeed explore dans cet article comment construire une mise en page de section moderne et dynamique en CSS, en s’appuyant sur des techniques avancées comme les container queries, le sélecteur :has()
, la fonction clamp()
, et les unités de requête de conteneur (cqw
). Il propose une solution pour adapter automatiquement la disposition d’une section (en-tête + grille de cartes) selon le nombre d’éléments, en évitant les orphelins visuels et en optimisant l’espace. L’auteur détaille aussi l’utilisation de la typographie fluide, des layouts responsives pour les cartes, et des styles conditionnels (par exemple, si une image est absente). Des astuces comme display: contents
pour intégrer l’en-tête dans la grille ou random()
pour des bordures aléatoires (expérimental) sont également présentées. Une démonstration pratique et des exemples de code illustrent chaque concept, montrant comment le CSS moderne permet de créer des designs flexibles et adaptatifs sans JavaScript.
Ce site sert à documenter collaborativement les protocoles HTTP/3 et QUIC.
Nathan Long partage cinq articles qui ont marqué des tournants dans sa carrière. Il évoque notamment l’impact de l’article d’Ethan Marcotte sur le responsive design, qui l’a aidé à comprendre la conception pour des écrans de tailles variables et à décrocher son premier emploi dans le web. Il mentionne aussi l’influence de l’OOCSS de Nicole Sullivan pour une CSS plus durable, son initiation à Vim grâce à un article provocateur, et l’adoption de flexbox via les tutoriels de Chris Coyier. Enfin, il souligne comment les avancées d’ES6 ont transformé sa façon d’écrire du JavaScript. L’article se conclut par un appel à partager ses propres découvertes, rappelant que chaque publication, même modeste, peut inspirer d’autres développeurs. Une belle réflexion sur la transmission et l’évolution collective du métier.
Andy Clarke explore dans cet article comment les animations ambiantes, discrètes et lentes, peuvent enrichir l’identité visuelle et la narration d’un site web sans distraire l’utilisateur. À travers trois études de cas (Reuven Herman, Mike Worth et EPD), il illustre des techniques concrètes : morphing de chemins SVG, superposition de mouvements pour créer de la profondeur, interactions subtiles et respect des préférences d’accessibilité (comme prefers-reduced-motion
). Ces animations, réalisées avec CSS ou GSAP, transforment des éléments statiques en expériences vivantes, tout en restant en arrière-plan. L’article met l’accent sur l’optimisation des SVGs, la performance et l’intégration harmonieuse du mouvement dans le design, prouvant que même dans des secteurs traditionnels, l’animation peut renforcer une marque sans dominer le contenu.
Zellij est un espace de travail terminal moderne, conçu pour offrir une expérience utilisateur riche et modulable directement dans le terminal. Il permet de diviser l’écran en plusieurs panneaux, onglets et sessions, avec des fonctionnalités avancées comme le partage de panneau entre plusieurs sessions, la personnalisation poussée via des thèmes et des plugins, et une gestion intuitive via des raccourcis clavier ou la souris. Le projet met l’accent sur la productivité et la flexibilité, en intégrant nativement des outils comme le multiplexage de terminaux, la recherche dans l’historique, et même la possibilité de lancer une démo en ligne sans installation. Idéal pour les développeurs et les utilisateurs avancés, Zellij se distingue par sa simplicité d’utilisation et sa capacité à s’adapter à des workflows complexes.
L’article explore l’univers des terminaux et shells sous Linux, en soulignant leur importance persistante en 2025 pour la gestion de fichiers, le développement, l’administration système et bien plus. Il commence par rappeler la distinction entre TTY et pts/pty, puis détaille l’évolution des shells (Bash, Zsh, Fish, etc.), leurs spécificités et leurs usages, ainsi que les multiplexeurs comme GNU Screen ou Tmux. L’article passe ensuite en revue une multitude de terminaux disponibles, qu’ils soient intégrés aux environnements de bureau (GNOME Console, Konsole, xfce-terminal), liés à des éditeurs de texte (Emacs, Vim), ou indépendants (Alacritty, Kitty, Wezterm, Warp, etc.), en mettant en avant leurs fonctionnalités, philosophies et particularités techniques. Il évoque aussi des solutions innovantes ou controversées, comme les terminaux intégrant l’IA (Warp, Waveterm). Une ressource utile pour découvrir ou comparer les outils de ligne de commande adaptés à ses besoins.
L’article présente plusieurs alternatives "local-first" à Postman, idéales pour les développeurs souhaitant éviter les comptes en ligne et les dépendances cloud. Parmi les solutions proposées : Bruno (open source, stockage local en fichiers .bru, compatible Git), Hoppscotch (léger, fonctionne dans le navigateur, self-hostable), ApiCat (hors ligne, gestion des environnements et variables), Yaak (multiplateforme, approche local-first, intégration Git), Kreya (pour REST, gRPC et WebSocket, données locales), et Posting.sh (en ligne de commande, fichiers YAML). Pour les utilisateurs de VS Code, des extensions comme REST Client, Thunder Client et RapidAPI Client offrent aussi des fonctionnalités similaires directement dans l’éditeur. Ces outils répondent aux besoins de confidentialité, de légèreté et de travail hors-ligne, tout en proposant des interfaces modernes et des fonctionnalités avancées.
Une application en ligne de commande (TUI) pour gérer le WIFI sous Linux
Ce billet explore le pattern Backend-for-Frontend (BFF), une solution architecturale pour les applications modernes où plusieurs frontends (web, mobile, TV) consomment les mêmes services backend. Le BFF agit comme une couche de traduction dédiée à chaque client, agrégeant les appels API, transformant les données et gérant la logique spécifique (cache, authentification, etc.), le tout possédé et maintenu par l’équipe frontend.
Les signes qu’un BFF pourrait être utile incluent des problèmes de performance (appels multiples, sur/sous-récupération de données), une lenteur de développement (dépendances entre équipes, duplication de logique) ou des frictions organisationnelles (API mal adaptées aux besoins UX). Le BFF permet d’aligner les priorités des équipes, d’améliorer les performances (notamment sur mobile) et d’accélérer la livraison de fonctionnalités.
Cependant, le BFF n’est pas une solution universelle : il ajoute de la complexité opérationnelle et peut être excessif pour des applications simples ou des petites équipes. Des alternatives existent (GraphQL, API Gateway, refonte backend). L’article souligne l’importance d’un pilote pour évaluer son impact avant une adoption large, et rappelle que le succès dépend d’une appropriation par les équipes frontend et d’une approche itérative.
Ce billet explique comment configurer Coolify et Traefik pour gérer des certificats SSL wildcard sur des sous-domaines dynamiques (comme user1.monapp.com, user2.monapp.com, etc.). L’auteur détaille d’abord le problème : avec des sous-domaines dynamiques, la validation HTTP classique de Let’s Encrypt ne fonctionne pas, car les domaines n’existent pas encore au moment de la demande de certificat. La solution passe par le DNS challenge, qui consiste à prouver le contrôle du domaine en ajoutant un enregistrement TXT dans la zone DNS, plutôt qu’un fichier sur le serveur.
Le guide décrit la configuration d’un résolveur de certificats dans Traefik (via Coolify) en utilisant l’API d’un fournisseur DNS compatible (comme bunny.net), puis montre comment appliquer ce résolveur à une application. Enfin, il aborde la gestion des custom domains, où l’utilisateur peut utiliser son propre domaine, en combinant un routeur Traefik avec une règle HostRegexp pour capturer tout le trafic inconnu et générer automatiquement les certificats via HTTP challenge. Un retour d’expérience utile pour qui veut automatiser la gestion du SSL sur des architectures multi-tenants.
L’article explique pourquoi il n’est plus nécessaire de développer des APIs REST à partir de zéro en 2025. Il met en avant des frameworks modernes comme tRPC, Fastify et Hono, qui permettent de réduire la quantité de code répétitif grâce à une approche basée sur les schémas, améliorant ainsi la rapidité et la sécurité des développements. L’idée centrale est d’utiliser ces outils pour automatiser et standardiser la création d’APIs, plutôt que de tout coder manuellement. Une lecture utile pour les développeurs souhaitant optimiser leur workflow et adopter des pratiques plus efficaces.
Jérémy Buget partage son retour d’expérience sur la création d’un chatbot IA spécialisé dans l’inclusion socio-professionnelle, en s’appuyant sur un corpus de documents issus de La communauté de l’inclusion. Le projet utilise une architecture locale avec Ollama (modèle gpt-oss:20b
), un script de crawling en Node.js pour récupérer les fiches d’information, une base PostgreSQL avec l’extension pgvector pour stocker et indexer les embeddings (768 dimensions) générés via Sentence Transformers (nomic-embed-text-v2-moe
). Le chatbot fonctionne en vectorisant les questions utilisateurs, en recherchant les documents pertinents par comparaison vectorielle (similarité cosinus), puis en générant des réponses sourcées via un LLM, le tout encapsulé dans une API FastAPI et une webapp simple. L’objectif était d’explorer l’exploitation de l’IA pour un usage métier précis, en garantissant des réponses fiables et ancrées dans le corpus documentaires. Le code source est disponible sur GitHub. Une démonstration concrète de RAG (Retrieval-Augmented Generation) avec des outils open-source.
Cet article explique comment Go gère efficacement les entrées/sorties réseau grâce à son modèle basé sur les goroutines et le netpoller, permettant de créer des applications scalables et performantes (comme des serveurs TCP, HTTP ou WebSocket). L'article détaille le fonctionnement interne de Go pour la gestion des connexions (via epoll
/kqueue
), illustre avec des exemples de code simples (serveur TCP, gestion des timeouts), et partage des bonnes pratiques : fermeture des connexions, optimisation des buffers, gestion des erreurs, et monitoring avec Prometheus. Un cas pratique montre la création d'un serveur WebSocket capable de gérer des milliers de connexions simultanées. L'auteur souligne aussi les pièges courants (fuites de goroutines, épuisement des descripteurs de fichiers) et propose des outils pour tester et déboguer (wrk, pprof). Idéal pour comprendre pourquoi Go excelle dans les applications réseau haute performance.
L’article explique comment résoudre un conflit de noms de groupes de volumes LVM (VG Name) sous Ubuntu, lorsque deux installations (une sur SSD interne, une sur SSD externe) utilisent le même nom par défaut (ubuntu-vg
). Après avoir branché le SSD externe, l’auteur constate que la partition principale ne monte pas à cause de ce conflit. La solution consiste à identifier les volumes avec sudo vgdisplay
, puis à renommer l’ancien groupe de volumes à l’aide de son UUID via la commande sudo vgrename <UUID> <nouveau_nom>
(exemple : sudo vgrename Kr38B5-Jt8d-3s42-0TLH-l3fe-av3a-C8a1Xt oldSSD
). Une fois renommé, le volume peut être monté et accessible normalement après saisie de la phrase de passe de déchiffrement.
L’article "Simplify Your Code: Functional Core, Imperative Shell" (adapté d’un épisode Google Tech on the Toilet) propose une méthode pour structurer son code en séparant la logique métier pure (le cœur fonctionnel) des effets de bord (la coquille impérative). L’idée est d’isoler la logique métier dans des fonctions pures, faciles à tester et à réutiliser, tandis que les interactions externes (base de données, envoi d’emails, etc.) sont reléguées à une couche impérative. Par exemple, au lieu de mélanger requêtes base de données et envoi d’emails dans une seule fonction, on extrait d’abord les utilisateurs expirés via une fonction pure (getExpiredUsers
), puis on génère les emails avec une autre fonction pure (generateExpiryEmails
), avant de les envoyer via une couche impérative. Cette approche améliore la testabilité, la maintenabilité et la flexibilité du code.
Devstral est un modèle LLM agentique open source développé par Mistral AI, spécialement optimisé pour les tâches de développement logiciel. Il se distingue par sa capacité à résoudre des problèmes complexes de programmation, comme la navigation dans de grandes bases de code, la modification de plusieurs fichiers et la correction de bugs, en agissant de manière autonome. Avec seulement 24 milliards de paramètres, il surpasse certains modèles fermés et open source plus volumineux sur le benchmark SWE-Bench Verified, tout en restant léger et utilisable en local sur des machines avec 32 Go de RAM ou une RTX 4090. Sous licence Apache 2.0, il s’intègre facilement à des frameworks comme OpenHands ou SWE-Agent.
L’article détaille son installation (via Ollama, plugins IDE ou OpenHands) et ses cas d’usage : génération de documentation, refactoring de code, création de projets structurés (ex. Spring Boot en DDD), ou amélioration de projets existants. Bien que performant, son efficacité dépend de la qualité des prompts et de l’environnement fourni. Devstral représente une solution prometteuse pour les développeurs souhaitant un assistant local, sécurisé et puissant, malgré quelques limites comme la génération occasionnelle de code inutile ou trop complexe. Une version "Large" est annoncée pour l’avenir.
Le Forum PHP 2025 a célébré les 30 ans de PHP, les 25 ans de l’AFUP, les 20 ans de Symfony et les 15 ans d’API Platform, avec des annonces et retours d’expérience marquants. Symfony 8 a été présenté avec ses évolutions (PHP 8.4 minimum, typage renforcé, suppression de code obsolète) et ses outils phares comme Flex, Autowiring ou Symfony AI. PHP 8.5 introduit notamment le pipe operator pour le chaînage de fonctions et des améliorations sur les URL et les emojis. L’IA était au cœur des discussions, avec des démonstrations du protocole MCP pour rendre les LLM capables d’agir via des outils serveurs, ainsi que des réflexions sur l’impact des IA génératives sur le métier de développeur. Des talks ont aussi mis en lumière des alternatives comme HTMX pour des applications dynamiques sans SPA, l’optimisation SQL face aux ORM, et des solutions pour la résilience des applications. Enfin, des retours sur la sécurité (WannaCry), l’accessibilité (RGAA) et l’embarquement de PHP dans des binaires autonomes ont complété ce panorama technique et inspirant. Une édition riche en innovations et en partage d’expertise pour la communauté PHP.
L’article de Bohdan Pastukh critique l’approche souvent enseignée par la documentation Symfony, qui pousse vers un Anemic Domain Model : les entités (comme User
) se réduisent à des conteneurs de données avec des getters/setters, tandis que la logique métier est déplacée vers des services externes (ex : ContactDataService
). L’auteur souligne que cette pratique, bien que courante dans les tutoriels, conduit à un code moins cohésif et moins orienté objet. Il encourage à privilégier les Rich Models, où la logique métier est encapsulée directement dans les entités, pour un design plus robuste et maintenable.
Exemple critiqué :
class User {
private string $contactType;
private string $contact;
public function setContactType(string $contactType): void { ... }
public function setContact(string $contact): void { ... }
}
class ContactDataService {
public function changeContactData(string $contactType, string $contact): void { ... }
}
Alternative suggérée : Intégrer la validation et la logique dans l’entité User
elle-même.