L’article présente une solution pour gérer des conteneurs avec Podman et des Quadlets, combinée à une approche GitOps via Materia, en remplacement d’un environnement Docker classique. L’auteur, contraint d’abandonner Talos (un OS optimisé pour Kubernetes) sur un nouveau fournisseur, a opté pour une Debian 13 avec Docker, mais a découvert les avantages de Podman : architecture daemonless (sans démon root), mode rootless (sous l’utilisateur), et intégration native avec systemd pour une gestion simplifiée des conteneurs et des logs.
L’outil podlet est utilisé pour convertir des fichiers docker-compose.yml en fichiers Quadlets (fichiers .container pour systemd), facilitant la migration. Par exemple, un fichier compose.yaml pour Traefik est transformé en configuration systemd, permettant une gestion automatisée des conteneurs, des redémarrages et des mises à jour via des timers. Les secrets sont gérés séparément pour plus de sécurité.
Pour automatiser davantage, l’auteur propose une intégration avec Materia, un outil GitOps, afin de déployer et synchroniser les configurations depuis un dépôt Git. Une crontab peut déclencher des mises à jour régulières, tandis que des attributs spécifiques par hôte permettent une personnalisation fine. Cette approche combine simplicité, automatisation et sécurité, tout en évitant les contraintes des solutions Kubernetes traditionnelles.
ONNX (Open Neural Network Exchange) est un standard ouvert lancé en 2017 par Microsoft et Meta, conçu pour faciliter le déploiement des modèles de machine learning en rendant les modèles portables et indépendants des frameworks d'origine. Il fonctionne en convertissant le code d'un modèle (comme PyTorch ou TensorFlow) en un graphe statique d'opérations mathématiques standardisées, stocké dans un fichier .onnx, puis exécuté par ONNX Runtime, un moteur optimisé pour maximiser les performances sur différents matériels.
L'intérêt principal d'ONNX réside dans sa capacité à résoudre des problèmes concrets de production, comme l'incompatibilité entre les environnements d'entraînement et de déploiement, ou les contraintes des cibles légères (mobile, embarqué). Il permet également d'optimiser les performances d'inférence en fusionnant des couches et en réduisant la latence, tout en restant plus léger que les frameworks traditionnels.
Bien qu'il existe d'autres formats comme TorchScript ou GGUF, ONNX se distingue par sa polyvalence, couvrant aussi bien les modèles classiques que les architectures de vision, ce qui en fait un choix stratégique pour un déploiement unifié et efficace.
GitLab propose des solutions pour optimiser les pipelines CI/CD face à des défis complexes comme les monorepos, les microservices ou les déploiements multi-environnements. L’article met en avant cinq cas d’usage concrets où la logique des pipelines GitLab (pipelines parents-enfants, exécution DAG, génération dynamique, etc.) améliore l’efficacité et la maintenabilité. Par exemple, pour un monorepo, GitLab permet de déclencher uniquement les sous-pipelines concernés par un changement, réduisant ainsi les temps d’exécution inutiles.
L’approche repose sur des fonctionnalités composables, comme les parent-child pipelines et les dépendances flexibles via needs, qui évitent les goulots d’étranglement liés aux pipelines linéaires traditionnels. Chaque sous-pipeline peut être géré indépendamment, facilitant la collaboration entre équipes tout en centralisant la visibilité des résultats.
Enfin, l’article souligne que cette modularité permet de résoudre des problèmes réels, comme l’optimisation des tests ou des déploiements, sans sacrifier la lisibilité ou la performance. Les exemples de configuration fournis illustrent comment adapter ces outils à des scénarios spécifiques, tout en restant adaptables à des besoins évolutifs.
L’auteur dénonce l’acceptation passive d’un monde où l’IA et les technologies addictives sont imposées comme inévitables, illustré par des exemples comme Google qui prône plus d’IA pour des populations précaires ou des événements universitaires sponsorisés par des marques favorisant des comportements néfastes. Il critique l’hypocrisie des entreprises technologiques, comme Meta, dont les produits sont conçus pour maximiser l’addiction, notamment chez les adolescents, avec une complicité assumée de leurs dirigeants.
Ploum remet en cause l’attitude des institutions, comme les universités ou les enseignants, qui normalisent l’usage des smartphones et des outils numériques sans en questionner les effets néfastes, préférant enseigner une "utilisation raisonnable" plutôt que de dénoncer ces pratiques. Il compare cette situation à des formations sponsorisées par des industries nuisibles, soulignant l’aveuglement collectif face à des modèles économiques exploitant la distraction et la dépendance.
Enfin, il pointe du doigt l’échec des régulations comme le RGPD, détournées en outils de lassitude (bannières de cookies) conçus pour décourager la résistance des utilisateurs. L’auteur conclut que la société, y compris ses élites, agit en réalité comme si elle méritait d’être manipulée, validant ainsi les stratégies des géants technologiques qui la traitent en masse de "crétins".
L’auteur, un développeur français travaillant en anglais, a intégré un coach passif dans son assistant IA (Claude Code) pour corriger ses erreurs linguistiques sans interrompre son travail. Ce système analyse ses messages, commits et commentaires en temps réel, en ciblant les erreurs structurelles typiques des francophones (faux amis, prépositions, noms indénombrables) avec une priorité variable selon leur impact.
Le skill fonctionne en arrière-plan : il exécute d’abord la tâche demandée (développement, revue de code) avant d’ajouter discrètement des corrections en bas de réponse, sans jamais perturber le flux de travail. Il évite les répétitions, ignore les corrections déjà appliquées et félicite l’utilisateur lorsqu’il progresse, renforçant ainsi l’apprentissage.
Cette approche se distingue des outils comme Grammarly, car elle s’intègre directement dans l’outil de développement utilisé quotidiennement, rendant la correction linguistique naturelle et continue.
Stirling Image est un outil open source sous forme de conteneur Docker qui propose plus de 30 fonctionnalités de traitement d'images, incluant le redimensionnement, la compression, la suppression d'arrière-plan, l'OCR ou encore l'amélioration de résolution, le tout avec des modèles d'IA locaux. L'application fonctionne hors ligne, sans transmission de données vers le cloud ni télémétrie, garantissant une confidentialité totale des images traitées. Elle s'installe facilement via une commande Docker unique et supporte les architectures AMD64 et ARM64, y compris les GPU NVIDIA pour une accélération matérielle.
Le GL.iNet Comet PoE (GL-RM1PE) est un KVM IP permettant d'accéder à distance au BIOS, au clavier et à l'écran d'un serveur ou PC, évitant ainsi des interventions physiques fastidieuses. L'auteur partage son expérience où une erreur de configuration firewall a bloqué l'accès à son serveur Proxmox, rendant ce type d'outil indispensable pour le dépannage à distance, surtout en dehors des heures de bureau ou pour du matériel sans IPMI.
Ce modèle se distingue par son alimentation PoE native, simplifiant son installation dans un rack, et propose des fonctionnalités comme l'accès pré-OS, le montage d'ISO virtuels et une latence de 45ms en 4K. Il est idéal pour les homelabs ou les environnements réseau avancés, avec une connectivité Gigabit et des options de sécurité comme Tailscale ou ZeroTier.
Trois versions existent : le GL-RM1 (budget), le GL-RM1PE (PoE, choix de l'auteur) et le GL-RM10 (écran tactile et Wi-Fi). Le GL-RM1PE, vendu environ 120 €, inclut les câbles nécessaires et un stockage eMMC de 32 Go, offrant un bon compromis pour les utilisateurs recherchant fiabilité et praticité.
Ce dépôt GitHub propose une collection de bonnes pratiques pour sécuriser l'utilisation du gestionnaire de paquets npm, face aux risques croissants d'attaques par la chaîne d'approvisionnement. Il met l'accent sur des mesures comme la désactivation des scripts post-installation, l'installation avec délai pour éviter les dépendances vulnérables, et l'utilisation d'outils comme npq ou Socket Firewall pour renforcer la sécurité lors des installations. Une section est dédiée à la prévention des attaques par confusion de dépendances, un vecteur d'attaque récurrent exploitant les lacunes des gestionnaires de paquets.
Le guide couvre également des pratiques pour le développement local sécurisé, comme éviter les secrets en clair dans les fichiers .env, et des recommandations pour les mainteneurs de paquets npm, incluant l'activation de la double authentification (2FA) et l'utilisation de l'authentification OIDC pour les publications. Il aborde aussi la vérification de la santé des paquets via des bases de données comme celle de Snyk et la méfiance envers le registre officiel npmjs.org.
Enfin, il propose des solutions pour différents gestionnaires de paquets (npm, pnpm, Bun, Yarn) et inclut des outils automatisés comme Snyk, Dependabot ou Renovate pour gérer les mises à jour de dépendances de manière sécurisée.
Hadrian est un framework open source dédié à la sécurité des API, conçu pour détecter les vulnérabilités du Top 10 OWASP, notamment celles liées à l'autorisation (BOLA, BFLA) et à l'authentification. Il automatise les tests en utilisant des rôles prédéfinis (admin, user, guest) et des templates YAML, sans nécessiter de code personnalisé.
L'outil se distingue par son approche en trois phases (configuration, attaque, vérification) pour confirmer les vulnérabilités, ainsi que par son support multi-protocoles (REST, GraphQL, gRPC). Il propose aussi des rapports adaptés aux pipelines CI/CD et une intégration optionnelle avec des LLM pour réduire les faux positifs.
Disponible sous licence Apache 2.0, Hadrian inclut 30 templates couvrant les risques majeurs de l'OWASP, avec des fonctionnalités comme le throttling adaptatif ou la compatibilité avec des proxys comme Burp Suite.
Louis Derrac aborde dans cet article la nécessité de repenser l’éducation au numérique pour éviter de simplement accompagner sa massification sans critique. Il souligne que l’enseignement actuel, souvent réduit à une simple adaptation aux outils numériques dominants (GAFAM, plateformes oligopolistiques), ignore les enjeux écologiques, sociaux et politiques de cette numérisation. Selon lui, éduquer au numérique implique de questionner ses impacts, ses infrastructures centralisées et ses effets aliénants, plutôt que de le présenter comme une fatalité.
L’auteur propose le concept de numérique acceptable, plus radical que le numérique responsable, car il reconnaît explicitement les coûts cachés du numérique (écologiques, sociaux) et refuse de le considérer comme neutre ou inévitable. Il défend une éducation technocritique, politique et émancipatrice, visant à former des citoyens capables de comprendre, critiquer et transformer ces outils plutôt que de les subir.
En pratique, Derrac oppose une approche consumériste et aliénante (comme l’enseignement des usages de Google) à une démarche contributrice et libératrice, encourageant des alternatives comme les moteurs de recherche éthiques ou la lutte contre le capitalisme de surveillance. Son objectif est de rendre l’éducation au numérique à la fois critique et constructive, en alignant ses méthodes sur les valeurs de soutenabilité et d’intérêt général.
NetWatch est un outil de diagnostic réseau en temps réel accessible directement depuis le terminal. Il permet d'obtenir une visibilité instantanée sur les interfaces, connexions et sondes de santé, sans configuration préalable ni paramètres complexes. Son mode "Flight Recorder" capture les incidents fugaces pour une analyse ultérieure via des exports détaillés.
L'outil se distingue par son approche unifiée, combinant des fonctionnalités habituellement séparées comme le suivi des interfaces (iftop, bandwhich) et l'analyse de paquets (Wireshark), le tout dans une interface terminal intuitive. Il propose également une carte de topologie réseau, des sondes de latence et un export PCAP pour une analyse approfondie.
Disponible via Homebrew, Cargo ou des binaires précompilés, NetWatch fonctionne sur Linux, macOS et Apple Silicon. Son utilisation se limite à une commande (netwatch ou sudo netwatch pour le mode complet), avec des raccourcis clavier pour activer l'enregistrement des incidents.
Vocalinux est un outil open source de dictée vocale 100 % hors ligne pour Linux, exploitant le moteur Whisper.cpp pour une transcription rapide et locale, sans dépendre du cloud. Il propose deux modes d'activation (toggle ou push-to-talk) et fonctionne sur la plupart des distributions majeures (Ubuntu, Fedora, Arch, etc.), avec une installation simplifiée en une commande. L'application garantit la confidentialité en traitant les données vocalement sur l'appareil, tout en offrant une intégration universelle dans les applications et environnements graphiques (X11 et Wayland).
Le projet comble un manque pour les utilisateurs Linux, longtemps privés de solutions natives comparables à celles de macOS ou Windows. Vocalinux supporte les GPU AMD, Intel et NVIDIA via Vulkan, avec des options légères (VOSK) pour les systèmes à faible mémoire. Après installation, l'outil se lance directement depuis le terminal ou le menu d'applications, avec une désinstallation tout aussi simple.
L'outil cible les utilisateurs recherchant une alternative privée et performante aux services cloud, avec une configuration flexible (modèles, langues, raccourcis) et une latence minimale pour une transcription en temps réel.
L’article de Bearstech alerte sur les risques liés à l’intégration massive des grands modèles de langage (LLMs) dans les processus de développement logiciel, soulignant un paradoxe entre gain de productivité et explosion de la dette technique. L’adoption généralisée de l’IA générative, motivée par des impératifs de rapidité, entraîne une production de code souvent mal maîtrisé, augmentant la complexité des systèmes et rendant leur maintenance et leur sécurisation plus difficiles.
Les conséquences incluent des difficultés accrues pour appliquer des correctifs de sécurité, un coût élevé pour le débogage et l’audit, ainsi qu’une baisse de productivité pour les développeurs expérimentés. Les LLMs, en validant les biais initiaux des utilisateurs, peuvent aussi fausser la qualité des solutions proposées, aggravant les vulnérabilités des systèmes.
Enfin, l’article met en garde contre l’illusion d’une productivité durable, rappelant que le "vibe coding" – dépendre entièrement de l’IA pour coder – fragilise la sûreté des infrastructures IT, notamment dans les entreprises françaises.
L’édition 2026 du SymfonyLive Paris a réuni la communauté Symfony à la Cité Universitaire, confirmant l’événement comme un rendez-vous incontournable malgré les évolutions rapides du secteur technologique. JoliCode y était présent et revient sur cette conférence, mettant en lumière l’annonce majeure de Fabien Potencier : Symfony TUI, un nouveau composant conçu pour moderniser les interfaces en terminal.
Symfony TUI, inspiré par l’essor de l’IA, permet une interaction avancée avec les grands modèles de langage (LLMs) directement depuis la console, tout en améliorant l’ergonomie des outils existants comme Symfony Console. Fabien a démontré ses capacités avec un coding agent et un jeu de Tetris fluide, illustrant son potentiel pour des interfaces graphiques modernes en PHP. Le composant repose sur des technologies comme PHP Fibers et Revolt pour des animations asynchrones, et propose trois méthodes de style (CSS-like, classes utilitaires ou inline) ainsi qu’un système de widgets natifs.
Cette innovation ouvre des perspectives pour l’affichage en console et l’intégration de l’IA, tout en s’appuyant sur l’héritage de Symfony Console. Fabien Potencier a également évoqué une approche collaborative future, où les contributeurs pourraient partager des prompts plutôt que des solutions complètes.
L’article de CSS-Tricks explore les alternatives à l’utilisation excessive de la déclaration !important en CSS, souvent employée pour forcer la priorité d’une règle mais qui complique la maintenance des projets. L’auteur souligne que cette méthode contourne le système de cascade naturel, rendant le code moins prévisible et plus difficile à gérer, notamment dans des équipes ou des projets évolutifs. Plutôt que de recourir à !important, il recommande des solutions comme l’ajustement de la spécificité des sélecteurs, l’ordre des règles ou l’utilisation de couches de cascade pour obtenir des résultats plus propres et durables. L’article aborde aussi les mécanismes de priorité en CSS, où la spécificité et l’ordre des déclarations déterminent quelles règles s’appliquent, tout en mettant en garde contre les effets pervers d’une surutilisation de !important.
L’auteur partage sa méthode d’organisation des notes dans Obsidian, un outil qu’il utilise depuis plusieurs années pour centraliser ses données personnelles, professionnelles et municipales. Il a abandonné une structure par dossiers thématiques au profit d’un seul dossier "notes", où chaque fichier porte ses propres métadonnées (tags, catégories) pour éviter les doublons et faciliter la recherche. Les tags suivent une arborescence logique (ex. mairie/urbanisme, perso/journal), tandis que les lieux physiques sont référencés via des liens internes vers un dossier dédié, permettant de lister automatiquement toutes les notes associées à un endroit donné.
Pour optimiser la gestion, il utilise le plugin natif Bases pour filtrer les notes selon divers critères (métadonnées, dates, contenu) et en a créé une douzaine, comme une liste des notes non taguées ou une carte géolocalisant ses références. Cette approche réduit la complexité du classement tout en maintenant une organisation efficace, inspirée en partie par d’autres utilisateurs comme Lara. L’auteur souligne aussi l’importance des liens internes pour relier des notes entre elles, notamment pour les lieux ou les projets transversaux.
ApiKit est un bundle Symfony léger conçu pour simplifier la création d'API REST propres en réduisant le code répétitif dans les contrôleurs. Il automatise des tâches comme la validation des entrées, la normalisation des réponses JSON et la gestion des exceptions, permettant aux développeurs de se concentrer sur la logique métier plutôt que sur l'infrastructure.
Le bundle impose une structure de réponse unifiée, facilitant la maintenance et l'intégration pour les clients (frontend, mobile, microservices). Il gère automatiquement les erreurs de validation et les exceptions, avec des formats cohérents pour les succès et les échecs, tout en restant flexible : les DTO ne sont pas obligatoires, et les dépendances reposent sur des composants Symfony standards.
ApiKit simplifie ainsi le développement d'API en Symfony, réduisant la duplication de code et améliorant la cohérence, sans imposer de contraintes strictes sur l'architecture des projets.
L’article analyse les symboles utilisés par les néonazis et néofascistes en 2026, suite à des manifestations récentes à Paris. Il détaille notamment des éléments comme les portes tambours aux flammes rappelant les Jeunesses hitlériennes ou la phrase « Sébastien Deyzieu, Présent ! », inspirée des hommages nazis aux « martyrs de novembre ». L’auteur souligne que ces symboles, bien que parfois ambigus, sont détournés pour afficher une affiliation claire au nazisme ou au fascisme.
Il évoque aussi des runes comme la Rune de vie (Algiz), utilisée à l’envers pour symboliser la mort, ou la croix celtique simplifiée, récupérée par divers mouvements d’extrême droite depuis les années 1920. Ces emblèmes, initialement historiques ou religieux, ont été progressivement associés à l’idéologie suprémaciste blanche et néonazie, notamment via des groupes comme le Parti Populaire Français ou le GUD.
Enfin, l’article rappelle l’importance du contexte dans l’interprétation de ces signes, tout en insistant sur leur récupération par des mouvements violents. Il s’appuie sur des exemples concrets, comme les drapeaux ou les hommages organisés, pour illustrer cette tendance persistante.
L’article explique comment implémenter une architecture hexagonale dans Symfony 7 pour séparer clairement les couches métier et infrastructure, en combinant des motifs DDD et une approche pilotée par événements. L’idée centrale est de placer le domaine au centre, indépendant du framework, tandis que les dépendances externes (Symfony, Doctrine, etc.) s’interfacent via des ports définis par le domaine. Cela permet une meilleure testabilité, évolutivité et flexibilité, comme illustré par un exemple concret de structure de code organisée en trois couches (Domain, UserInterface, Infrastructure).
L’auteur souligne les limites des architectures traditionnelles en couches, où les services deviennent des "classes-dieu" et les tests complexes. En adoptant cette approche, les commandes, requêtes et événements sont gérés de manière isolée, facilitant les changements techniques (ex : remplacer Doctrine par MongoDB) sans impacter la logique métier. L’intégration de Symfony Messenger renforce le caractère événementiel, permettant une communication asynchrone entre les composants.
Enfin, l’article aborde brièvement la séparation des lectures et écritures (CQRS), bien que le détail soit tronqué. L’accent est mis sur la praticité : une implémentation concrète, adaptable, qui évite les pièges des architectures monolithiques tout en restant compatible avec les outils Symfony existants.
L’article présente talosctl-oidc, un outil conçu pour simplifier l’authentification sur Talos Linux, un système d’exploitation minimaliste pour Kubernetes. L’auteur souligne les limites du système actuel basé sur des certificats mTLS (mutual TLS), qui impose une gestion manuelle fastidieuse des accès, notamment dans un contexte d’équipe. Plutôt que de régénérer manuellement des certificats pour chaque utilisateur, l’outil propose une solution intégrant l’OIDC (OpenID Connect) via un serveur d’échange de certificats, permettant une authentification centralisée via un fournisseur d’identité comme Authentik ou Keycloak.
Le fonctionnement repose sur un serveur intermédiaire qui génère des certificats Talos temporaires à partir des identités validées par l’OIDC. L’article détaille les étapes techniques, de l’installation à la configuration, en passant par la création d’un client OIDC dans l’IdP et la gestion des rôles via RBAC. L’outil automatise également le renouvellement des certificats et simplifie la révocation des accès, évitant ainsi la régénération complète de la CA en cas de départ d’un collaborateur. Cette approche s’inscrit dans une logique de cloud-native, alignée sur les bonnes pratiques modernes d’infrastructure.
Enfin, l’auteur évoque l’absence de solution native pour intégrer l’OIDC directement dans Talos, justifiant ainsi le développement de cet outil open source. Bien que conçu pour des environnements minimalistes ou air-gapped, talosctl-oidc offre une alternative pragmatique aux solutions centralisées comme Omni, tout en restant compatible avec les clusters existants. Le projet illustre une réflexion sur l’automatisation et la sécurité des accès dans les infrastructures Kubernetes.