Quotidien Shaarli
September 30, 2025
David Larlet donne sa recette du pain. Il n'y a plus qu'à essayer
Cet article explique pourquoi Kubernetes s’est imposé comme une solution incontournable pour les hébergeurs en 2025, grâce à un trio gagnant : haute disponibilité (HA), scalabilité et observabilité. L’article souligne que Kubernetes permet d’atteindre des niveaux de disponibilité théoriques très élevés (bien au-delà des 99,9 % des anciennes infrastructures VM), grâce à des mécanismes intégrés comme les réplicas, les probes, l’anti-affinity et des plans de contrôle redondants. Les hébergeurs abandonnent progressivement les approches traditionnelles (VM par projet, sur-provisionnement, déploiements manuels via Ansible) pour adopter Kubernetes, qui offre une gestion plus efficace des ressources, des déploiements sans coupure et une meilleure observabilité. L’auteur annonce une série d’articles pour approfondir chaque aspect : haute disponibilité, stockage, load balancing, mises en production fluides, sécurité et gouvernance des coûts, illustrant ainsi la maturité et l’adoption massive de Kubernetes dans le cloud moderne. La disponibilité réelle reste cependant à mesurer en production avec des SLO et une observabilité renforcée.
Cet article explique la commande Linux ip
, utilisée pour visualiser et modifier la configuration réseau. L’article détaille quelques sous-commandes utiles comme ip addr list
(affiche les adresses IP des interfaces), ip route list
(affiche la table de routage), et montre comment changer une adresse MAC pour contourner des restrictions réseau (par exemple dans les cafés). D’autres options comme ip link
(gestion des interfaces), ip neigh
(table ARP), et ip xfrm
(pour IPsec) sont mentionnées, ainsi que des astuces comme l’utilisation de --color
pour une sortie colorée ou --brief
pour un résumé. Le zine complet et d’autres comics sont disponibles via un abonnement à la newsletter ou sur le site de l’autrice.
Thibault Buze explique dans ce troisième volet de Sous le capot du cloud le choix de Proxmox VE comme hyperviseur pour leur cloud interne, après une analyse des besoins clés : haute disponibilité (HA), automatisation, interopérabilité et simplicité d’opération. Parmi les alternatives (vSphere, Hyper-V, OpenStack), Proxmox s’impose pour son approche ouverte (KVM/QEMU, LXC), native HA (migration à chaud, bascule automatique), flexible (stockage iSCSI/NFS/ZFS, intégration TrueNAS) et automatisable (API, Terraform, cloud-init). L’architecture repose sur 3 hôtes minimum, des réseaux dédiés (management, stockage, données) et une intégration fluide avec Kubernetes (via Longhorn). Le tout est industrialisé en Infrastructure as Code (Terraform), garantissant reproductibilité et traçabilité. Points clés : séparation des plans de trafic, sauvegardes testées (Proxmox Backup Server), et monitoring rigoureux. Une solution souveraine, économique et scalable, idéale pour des clusters hébergeant 500 à 2000 pods.
L'article introduit la commande Linux tc
(traffic control), utilisée pour simuler et contrôler le trafic réseau. L’article montre comment ajouter un délai de 500 ms aux paquets avec tc qdisc add dev wlp3s0 root netem delay 500ms
, puis supprimer cette règle avec tc qdisc del
. L’outil netem
permet aussi de perdre, dupliquer ou corrompre des paquets, idéal pour tester des conditions réseau difficiles. L’autrice mentionne qu’avec un routeur Linux, on peut même ralentir le trafic d’autres utilisateurs (comme celui d’un frère), et invite à explorer tc qdisc show
pour voir les règles actuelles. Le zine complet et d’autres comics sont disponibles via abonnement ou sur le site.
Cet article compare les architectures standalone et haute disponibilité (HA) pour Kubernetes on-premise, en expliquant comment concevoir et opérer un cluster HA. L’article détaille l’importance de redonder les composants critiques (comme l’API Kubernetes) pour éviter les points de défaillance uniques (SPOF), même si cela peut introduire de nouveaux défis (ex. : un load balancer devant les control planes peut lui-même devenir un SPOF). Il présente aussi une solution de stockage HA avec TrueNAS (exposant des volumes bloc via iSCSI) et Longhorn pour orchestrer la réplication, les snapshots et la reconstruction automatique en cas de panne d’un nœud. L’auteur insiste sur la nécessité de bien dimensionner chaque couche (stockage, réseau, contrôle) pour garantir la résilience du cluster, tout en soulignant que la haute disponibilité commence par la redondance du plan de contrôle et une gestion fine des volumes persistants. Le billet s’inscrit dans une série technique explorant les bonnes pratiques pour opérer Kubernetes en production.
L'article explique comment utiliser la commande ss
(socket statistics) sous Linux pour identifier et gérer les processus utilisant un port réseau. L’article montre comment ss -tunapl
permet de lister les serveurs en cours d’exécution et d’afficher les PID des processus, utile pour libérer un port occupé (comme le 8080). Les options comme -n
(affichage des ports en numérique), -p
(affichage des PID), et d’autres (-l
, -t
, -u
) sont détaillées pour filtrer les sockets TCP, UDP ou Unix. L’autrice recommande ss
plutôt que netstat
, plus ancien et complexe, pour une utilisation plus simple et efficace. Le zine complet et d’autres ressources sont disponibles via abonnement ou sur le site.