Web-Check est un outil open source d'OSINT (Open Source Intelligence) conçu pour analyser en profondeur n'importe quel site web. Il permet d'obtenir des informations détaillées sur l'infrastructure, la sécurité et les technologies utilisées par un site, comme les adresses IP, les certificats SSL, les en-têtes HTTP, les cookies, les ports ouverts ou encore les extensions DNS sécurisées.
L'outil propose une interface centralisée affichant des données techniques variées, utiles pour évaluer la performance, la sécurité ou l'empreinte carbone d'un site. Une version hébergée est accessible via web-check.as93.net, et le projet peut être déployé localement via Docker ou des plateformes comme Netlify et Vercel.
Email.md simplifie la création d’emails responsive en utilisant le Markdown, évitant ainsi la complexité du HTML traditionnel. L’outil propose des templates prédéfinis et un éditeur visuel pour générer rapidement des emails adaptés aux mobiles.
Un exemple concret est fourni avec un modèle de confirmation d’email, incluant un préheader, un thème sombre et des blocs structurés (en-tête, contenu, appel à l’action, pied de page). Les utilisateurs peuvent personnaliser facilement le texte et les éléments visuels.
Le projet est open source, disponible sur GitHub, et s’installe via npm pour une intégration fluide dans les workflows de développement.
Proxelar est un proxy MITM (Man-in-the-Middle) programmable écrit en Rust, conçu pour intercepter, inspecter et modifier le trafic HTTP/HTTPS. Il permet de transformer les requêtes et réponses en temps réel via des scripts Lua, offrant ainsi un outil puissant pour le débogage d'API, l'analyse de services tiers ou le test d'applications mobiles. Le projet propose plusieurs modes de fonctionnement (proxy avant/arrière) et des interfaces variées (terminal, TUI interactive, interface web).
Parmi ses fonctionnalités clés, Proxelar inclut l'interception automatique des connexions HTTPS grâce à une autorité de certification intégrée, ainsi qu'un système de filtrage avancé pour analyser les requêtes. Il prend en charge l'inspection des flux WebSocket et permet une installation simplifiée du certificat racine via une page dédiée. Le projet est distribué sous licence MIT et peut être installé via Cargo, Homebrew ou Docker.
Le dépôt GitHub du projet met en avant des contributions actives, avec des mises à jour régulières et une documentation en constante amélioration, incluant des exemples de scripts Lua pour personnaliser le comportement du proxy.
Algorithm Visualizer est une plateforme interactive en ligne qui permet de visualiser et comprendre des algorithmes grâce à des représentations graphiques. Le site propose des démonstrations en temps réel d'algorithmes classés par catégories (comme le backtracking ou la programmation dynamique), facilitant leur apprentissage pour les étudiants, enseignants ou professionnels.
L'outil s'appuie sur des bibliothèques de visualisation en plusieurs langages de programmation, extraites directement du code source. Des ressources complémentaires, comme des tutoriels et des articles, sont également disponibles pour approfondir les concepts.
Le projet est open source et collaboratif, avec plusieurs dépôts GitHub dédiés à l'application web (développée en React), au serveur backend et aux algorithmes visualisés. Les contributions sont encouragées pour enrichir la base de données ou améliorer les fonctionnalités.
CodeBurn est un outil en ligne de commande qui permet de visualiser et analyser l'utilisation des tokens par les IA de codage comme Claude Code, Codex ou Cursor. Il offre un tableau de bord interactif en TUI avec des graphiques et des données détaillées par modèle, tâche ou projet, incluant le taux de réussite en une seule tentative et les coûts associés. L'outil se distingue par son approche sans wrapper ni proxy, en lisant directement les données de session depuis le disque, et supporte l'export en CSV ou JSON.
Disponible sous forme d'application macOS native ou via npm, CodeBurn fonctionne sans clé API et s'appuie sur LiteLLM pour la tarification. Il permet des analyses sur différentes périodes (aujourd'hui, 7 jours, mois, etc.) et inclut des fonctionnalités comme l'optimisation pour identifier les gaspillages ou la comparaison de modèles. Les commandes simples comme codeburn today ou codeburn report -p 30days facilitent son utilisation.
Cet outil permet de générer des diagrammes d'architecture système esthétiques et thématiques sombres sous forme de fichiers HTML/SVG autonomes, directement via une compétence pour l'IA Claude. Il suffit de décrire son architecture en langage naturel pour obtenir un diagramme professionnel en quelques secondes, sans compétences en design ni logiciel spécifique.
L'installation repose sur trois étapes simples : télécharger un fichier ZIP, l'importer dans les paramètres des compétences de Claude (nécessitant un abonnement Pro ou supérieur), puis décrire son architecture via une analyse automatique de codebase, une rédaction manuelle ou une demande de modèle générique. L'IA produit ensuite un fichier HTML prêt à l'emploi, modifiable à la volée par des instructions en conversation.
Le projet propose des exemples concrets pour des cas d'usage variés (applications web, architectures serverless AWS ou microservices) et permet des itérations rapides en ajustant la description initiale. Les fichiers générés sont partageables et compatibles avec tout navigateur.
Ce dépôt GitHub propose un fichier CLAUDE.md conçu pour réduire la verbosité des réponses de l'IA Claude, limitant ainsi le nombre de tokens utilisés dans les workflows intensifs. Le fichier s'ajoute directement à un projet et impose des règles strictes pour des réponses concises, comme éviter les formules de politesse superflues ou les redondances. Il cible particulièrement les pipelines d'automatisation ou les tâches répétitives où l'économie de tokens est significative.
Le projet met en avant deux méthodes d'utilisation : coller les règles directement dans une session de chat pour une utilisation ponctuelle, ou intégrer le fichier CLAUDE.md dans un projet pour une application automatique et systématique. Les benchmarks, réalisés sur Claude, montrent une réduction des tokens en sortie, mais soulignent que l'ajout du fichier augmente légèrement les tokens en entrée à chaque interaction.
Cependant, l'efficacité dépend du contexte : le fichier est avantageux pour des flux de travail volumineux ou des sessions persistantes, mais peut devenir contre-productif pour des requêtes courtes ou des sessions éphémères. Les résultats sur d'autres modèles (comme Llama ou Mistral) ne sont pas documentés, et l'approche reste moins robuste que des solutions structurées comme le mode JSON ou les schémas d'outils.
musicForProgramming() est une série de mixes conçus pour accompagner des activités nécessitant concentration, comme la programmation. Le site propose 77 épisodes, totalisant plus de 114 heures de musique, avec des titres variés allant de l'ambient à l'électronique. Chaque épisode est disponible en lecture directe ou en téléchargement, avec des métadonnées détaillées comme la durée et la taille des fichiers.
Contrapunk est un générateur d'harmonie MIDI en temps réel et un convertisseur guitare vers MIDI, basé sur des règles strictes de contrepoint. Développé en Rust, il offre une latence inférieure à 10 ms, idéale pour les performances live, et fonctionne sur navigateur ou en application native. L'outil est gratuit, sans inscription, et compatible avec les contrôleurs MIDI sous Chrome.
Le projet met en avant huit modes d'harmonie (Palestrina, Bach, Jazz, etc.) et 28 modes d'échelle, avec une gestion avancée des voix pour éviter les parallèles ou les croisements. Il prend en charge l'entrée guitare via détection de hauteur et suivi d'attaque, avec une calibration automatique.
Disponible en open source (licence MIT), Contrapunk s'appuie sur Rust, SvelteKit et Tauri pour une exécution multiplateforme. Une version cloud est en développement, avec accès anticipé pour les intéressés.
Ce tutoriel explique comment configurer Postfix en tant que relais SMTP authentifié sur un serveur Debian 13 en réseau local, sans accès direct à Internet. L’objectif est d’envoyer des e-mails (notifications système ou applications locales) via un relais SMTP externe sécurisé. L’auteur privilégie Postfix plutôt que Nullmailer pour sa familiarité, tout en soulignant la simplicité relative de ce dernier.
L’installation repose sur les dépôts Debian, avec des paquets comme postfix, bsd-mailx pour les tests en ligne de commande, et sasl2-bin pour l’authentification. La configuration de base dans /etc/postfix/main.cf limite l’envoi aux machines locales (mynetworks = 127.0.0.1/32) et définit un relais SMTP externe (relayhost) avec chiffrement TLS. Les identifiants de connexion sont stockés dans /etc/postfix/sasl_passwd.
L’auteur met en garde contre les restrictions des fournisseurs comme Gmail, qui imposent des configurations complexes pour autoriser l’envoi via relais. La solution proposée repose sur un relais personnalisé (ex. mail.microlinux.fr:465) avec authentification SASL, garantissant une transmission sécurisée des e-mails depuis un environnement local.
Ce billet présente une méthode pour déployer rapidement des applications Symfony en production grâce à une combinaison d'outils modernes. L'auteur souligne d'abord l'accélération du développement grâce à l'IA, qui permet de créer des prototypes fonctionnels en quelques heures, mais souligne que l'infrastructure doit suivre pour éviter un goulot d'étranglement. Il propose ensuite Once, un outil open source de 37signals, qui automatise le déploiement d'applications Docker sur un seul serveur via un reverse proxy intégré et une gestion automatique des certificats SSL.
L'article détaille l'installation simplifiée de Once, qui repose sur Docker et Kamal, et son fonctionnement avec un wildcard DNS pour attribuer automatiquement un sous-domaine à chaque nouvelle application déployée. Cette approche élimine les configurations manuelles de reverse proxy ou de certificats, permettant un déploiement en quelques minutes après un simple git push.
Enfin, l'auteur explique pourquoi il a adopté FrankenPHP, un runtime PHP intégré à Caddy, qui remplace avantageusement la stack classique (Nginx, PHP-FPM, Mercure) par un seul conteneur. Grâce à l'IA, la génération et le débogage des fichiers Dockerfile sont devenus accessibles, rendant cette solution à la fois performante et simple à mettre en œuvre pour des projets PHP modernes.
Les LiveComponents de Symfony offrent une solution efficace pour créer des interfaces dynamiques sans recourir à des bibliothèques front-end lourdes, en s'appuyant sur des attributs Twig et une stack simple. Leur simplicité d'utilisation, comme l'ajout d'attributs pour des fonctionnalités comme l'édition inline ou le live reload, les rend attractifs pour les développeurs back-end peu enclins au développement front-end. Cependant, leur utilisation intensive révèle des limites, notamment en matière de sérialisation des objets Doctrine complexes, comme les collections ou les relations entre entités.
L'auteur illustre ces limites avec un exemple concret où la sérialisation d'une collection d'entités Loan échoue, obligeant à recourir à des solutions comme l'activation du sérialiseur ou la définition de types concrets. Cette problématique, bien que simplifiée par rapport à une architecture front-end classique, montre que la promesse d'une solution "tout-en-un" s'effrite face à des cas d'usage avancés, comme la gestion de fichiers ou de collections complexes. Les LiveComponents, bien que puissants pour des démonstrations, révèlent des contraintes techniques qui peuvent compliquer leur adoption à grande échelle.
La sortie de Symfony UX 3.0.0 marque une évolution majeure en abandonnant les dépendances obsolètes de la version 2.x et en relevant les exigences minimales à PHP 8.4 et Symfony 7.4. Cette version se concentre sur des composants Twig robustes, une intégration frontend-backend fluide et des standards web natifs, simplifiant ainsi le développement sans JavaScript personnalisé.
L’article propose un tutoriel pratique pour créer une plateforme immobilière moderne en exploitant les nouvelles fonctionnalités, comme les composants Twig, l’autocomplétion pour les commodités et l’outil Cropper.js pour les galeries d’images. L’installation repose sur des packages spécifiques, avec une vérification des composants via la commande debug:twig-component.
Enfin, l’exemple illustre la création d’un composant réutilisable PropertyCard en PHP 8.4, utilisant des attributs et des classes CSS dynamiques via la fonction html_cva de twig/html-extra, pour un rendu optimisé et maintenable.
L’article de Richard Dern propose une approche alternative au blocage systématique des bots d’IA, en suggérant plutôt de les éduquer en fixant des règles claires. L’auteur argue que l’interdiction pure et simple est techniquement fragile, éthiquement discutable et intellectuellement réductrice, car elle prive les utilisateurs d’un accès potentiel à des contenus de qualité. Il souligne que le vrai débat ne devrait pas porter sur l’accès, mais sur les conditions d’utilisation, permettant ainsi aux créateurs de contenu de mieux contrôler l’impact des bots.
Dern insiste sur la nécessité de remplacer une logique binaire (autoriser ou bloquer) par une gouvernance fine, différenciant les bots selon leur usage (recherche, entraînement, archivage, etc.). Cette approche, plus morale et pragmatique, évite de transformer le web en un espace clos et favorise une régulation transparente, où les bots doivent s’identifier, respecter des cadences et offrir des contreparties.
Enfin, l’auteur met en avant les outils existants, comme le standard robots.txt ou les catégories proposées par Cloudflare, pour encadrer ces pratiques. Plutôt que de rendre la lecture impossible, il plaide pour un cadre où les bots assument des obligations lisibles et vérifiables, assurant ainsi un équilibre entre ouverture du web et protection des créateurs.
Shannon est un pentester IA autonome en white-box conçu par Keygraph pour tester la sécurité des applications web et de leurs APIs. Il analyse le code source pour détecter des vecteurs d’attaque, puis exécute des exploits réels (injections, contournements d’authentification, SSRF, XSS) afin de valider les vulnérabilités avant leur mise en production. Seules les failles avec un proof-of-concept fonctionnel sont rapportées.
L’outil comble un vide en automatisant les tests de pénétration, souvent limités à une fois par an, pour les aligner sur le rythme des déploiements modernes. Disponible via npx @keygraph/shannon, il s’intègre facilement aux pipelines CI/CD et utilise une architecture éphémère pour limiter les risques.
Le projet, sous licence AGPL-3.0, est open source et propose des fonctionnalités avancées comme un CLI via monorepo, une intégration Docker, et une gestion structurée des vulnérabilités. Il cible les équipes cherchant à réduire leur exposition aux risques de sécurité entre deux audits manuels.
Cory Doctorow, militant de l’Electronic Frontier Foundation (EFF) depuis 25 ans, analyse dans une récente conférence la dégradation progressive d’Internet sous l’influence des géants technologiques et des régulations étasuniennes, qu’il qualifie de « guerre de l’informatique grand public ». Malgré des victoires juridiques comme l’annulation du Broadcast Flag en 2003, il constate que les libertés numériques reculent face à la « merdification » d’un réseau de plus en plus contrôlé par des acteurs privés et des politiques restrictives.
Sa conférence au 39e Chaos Communication Congress (39C3) à Hambourg, traduite par Framalang, marque un tournant selon lui : l’émergence d’un « Internet post-étasunien », moins dépendant des États-Unis, pourrait enfin concilier innovation et autonomie technologique. Doctorow souligne que cette évolution, bien que timide, est en partie accélérée par des dynamiques géopolitiques imprévues, comme les tensions sous l’ère Trump, qui ont poussé d’autres pays à repenser leur souveraineté numérique.
Framasoft, qui diffuse cette traduction, rappelle son engagement historique dans la défense des droits numériques, notamment via la traduction des travaux de Doctorow depuis plus de 15 ans. L’article met en lumière l’espoir d’un Internet plus ouvert, où les utilisateurs retrouveraient un contrôle accru sur leurs outils technologiques, tout en soulignant les défis persistants pour y parvenir.
Ce tutoriel explique comment créer une commande météo en Ruby, intégrée au shell Fish, en utilisant une API gratuite comme Open Meteo. L'auteur détaille les étapes pour récupérer les données météo (température, probabilité de pluie, description) via une requête API et les formater dans le terminal. Un exemple concret montre la sortie attendue, avec des prévisions horaires pour une journée.
L'article présente ensuite le code Ruby pour interroger l'API et parser les données JSON. Il inclut deux scripts : l'un pour récupérer les données météo via curl, et l'autre pour les traiter et les afficher de manière lisible. L'auteur souligne la flexibilité du code et la possibilité d'adapter les requêtes selon ses besoins.
Enfin, le tutoriel aborde la gestion des codes météo via un dictionnaire Ruby, permettant de convertir les codes numériques en descriptions textuelles. L'approche est simple et ne nécessite pas de clé API, rendant l'intégration accessible même pour les débutants.
Le MTU (Maximum Transmission Unit) détermine la taille maximale des paquets réseau, généralement fixée à 1500 octets en Ethernet standard. Une mauvaise configuration peut fragmenter les données, ralentir les transferts et augmenter l'overhead. L'article explique son importance, son impact sur les performances et les cas où des Jumbo Frames (MTU jusqu'à 9000 octets) peuvent optimiser les transferts massifs, à condition que tous les équipements du réseau soient compatibles. La cohérence du MTU sur l'ensemble de la chaîne de communication est essentielle pour éviter les fragmentations coûteuses.
L’auteur présente deux skills pour Claude Code, /veille et /digest, permettant de centraliser sa veille technologique directement dans l’éditeur. Ces commandes agrègent automatiquement les articles récents depuis des sources francophones (via /veille) ou internationales (via /digest), en filtrant par date et en évitant les doublons. L’outil est conçu pour s’intégrer dans le flux de travail, avec une configuration simple via un fichier YAML listant les flux RSS.
La solution repose sur un script Python minimaliste (fetch_feeds.py), utilisant uniquement la bibliothèque standard pour récupérer, parser et formater les articles en Markdown. Les sources sont facilement personnalisables, et le système permet de spécifier la période de veille (par défaut 7 jours). L’approche évite les dépendances externes, garantissant une portabilité totale.
L’avantage principal réside dans l’intégration native à Claude Code : après avoir consulté les articles, l’utilisateur peut directement interagir avec eux (résumés, analyses techniques) sans quitter son environnement de travail. L’auteur souligne ainsi l’efficacité de cette méthode pour maintenir une veille productive et contextualisée.
L’architecture d’un système de modules JavaScript est une décision clé pour structurer une application, car elle détermine les frontières entre les composants et influence la maintenabilité du code. Avant les modules, JavaScript dépendait du scope global, entraînant des conflits de variables et des écrasements de scripts. Les modules, comme ESM (ECMAScript Modules) ou CommonJS, permettent de créer des portées privées et de contrôler explicitement les exports, mais leur conception impacte différemment la flexibilité et l’analysabilité du code.
ESM et CommonJS diffèrent par leur approche : CommonJS offre une flexibilité accrue avec des imports dynamiques (via require()), tandis qu’ESM impose des règles strictes (imports statiques en haut de fichier) pour faciliter l’analyse statique et le tree-shaking, réduisant ainsi la taille des bundles. Cette rigidité améliore la prédictibilité des dépendances, mais limite certaines pratiques comme les imports conditionnels.
Enfin, la gestion des modules reflète l’architecture globale d’un projet, influençant les dépendances, la collaboration d’équipe et la scalabilité. Une conception réfléchie des modules dès le départ évite des problèmes de maintenance futurs, faisant de ce choix une étape fondatrice pour tout développement JavaScript.