Ce second article de la série détaille la configuration avancée d’un nœud Proxmox VE sur un serveur dédié Scaleway avec une seule IP publique. L’auteur explique comment exposer plusieurs services (comme Garage S3 et l’interface Proxmox) de manière sécurisée via HTTPS, en utilisant Caddy comme reverse proxy avec gestion automatique des certificats SSL via Let’s Encrypt. Le guide couvre la configuration d’un réseau privé avec NAT, la création de règles de pare-feu Proxmox à trois niveaux (datacenter, nœud, VM/conteneur), et le dépannage des problèmes courants (DNS, ports, certificats, erreurs 502). Une attention particulière est portée sur l’identification des flux réseau internes et l’adaptation des IPSET pour éviter les blocages involontaires. L’objectif est de centraliser et sécuriser l’accès aux services tout en automatisant la gestion des certificats.
L’article détaille l’installation de Proxmox VE sur un serveur dédié Scaleway (modèle Start-2-S-SATA) sous Debian 13 Trixie, motivée par la volonté de remplacer une solution de sauvegarde instable basée sur un VPS Hetzner et un stockage Samba. L’auteur explique chaque étape : choix de Debian 13 pour éviter les versions obsolètes de Proxmox proposées par Scaleway, partitionnement manuel du disque (avec ajustements post-installation pour créer des partitions dédiées à /datastore et /data), configuration réseau en NAT pour permettre à plusieurs VMs/LXC de partager une seule IP publique, et sécurisation du serveur. Le guide inclut aussi la configuration du pare-feu Proxmox, l’activation du routage IPv4, et des astuces pour le dépannage. L’objectif final est de déployer un conteneur LXC avec Garage S3 pour stocker les sauvegardes Proxmox Backup Server de manière fiable et distante. Un tutoriel technique et pratique pour administrer un hyperviseur sur un serveur dédié avec une seule IP publique.
Ce billet de blog explique comment transformer un serveur Proxmox VE en nœud Kubernetes en utilisant LXC et lxcri, un runtime de conteneurs compatible CRI pour LXC. L'auteur, bien conscient du côté inutile du projet, décrit les étapes pour installer et configurer cri-o et lxcri sur Proxmox VE, malgré les défis techniques et les bugs rencontrés. Le but est de réutiliser au maximum les technologies existantes de Proxmox, notamment LXC, pour intégrer le serveur dans un cluster Kubernetes. Un projet audacieux et instructif pour les amateurs de virtualisation et de conteneurs.
Enix, spécialiste en gestion de plateformes Proxmox, a développé et open-sourcé pvecontrol, une CLI pour administrer efficacement des clusters Proxmox VE. Cet outil, conçu pour les équipes gérant plusieurs clusters, offre des fonctionnalités clés comme le listing des VMs multi-cluster, le drain intelligent des hyperviseurs et des sanity checks. Simple à installer via pipx, pvecontrol nécessite Python 3.9+ et Proxmox 8+. Il permet de visualiser l'état des clusters, déplacer les VMs en fonction des ressources disponibles et vérifier l'intégrité des clusters avant maintenance. La configuration se fait via un fichier YAML sécurisé, évitant le stockage direct des mots de passe. Plus d'infos et le code source sont disponibles sur leur dépôt GitHub.
L'auteur décrit son infrastructure autohébergée basée sur un cluster Proxmox composé de trois machines identiques, choisies pour leur facilité de maintenance, leur faible coût et leur faible consommation électrique. Il explique les raisons de ce choix, notamment la gestion des pannes et la tolérance aux pannes réseau. Il mentionne également un nœud de test et un serveur de sauvegarde, ainsi qu'un NAS Synology utilisé pour les sauvegardes hors ligne. L'auteur souligne l'importance de documenter et de partager ce type d'infrastructure, qui est rarement décrit en détail.
Ce tutoriel détaille la mise à niveau de Proxmox VE 8 vers 9, une version basée sur Debian 13 "Trixie" et un noyau Linux 6.14, apportant des améliorations majeures : gestion avancée des snapshots, affinité HA, interface web réécrite en Rust/Yew, et mises à jour de QEMU, LXC, ZFS et Ceph. La procédure nécessite de préparer soigneusement le système : sauvegarder VMs/containers et configuration, vérifier l’espace disque (10 Go libres), et mettre à jour Proxmox VE 8.4. L’outil pve8to9 permet de détecter les problèmes (ex : présence de systemd-boot, microcode Intel manquant, GRUB non configuré). Après correction des erreurs, la migration s’effectue en remplaçant "bookworm" par "trixie" dans les sources APT, puis en lançant apt full-upgrade. Un redémarrage finalise l’installation. Points clés : arrêter les VMs avant la mise à jour, corriger les warnings, et consulter la documentation officielle en cas de problème.
Thibault Buze explique dans ce troisième volet de Sous le capot du cloud le choix de Proxmox VE comme hyperviseur pour leur cloud interne, après une analyse des besoins clés : haute disponibilité (HA), automatisation, interopérabilité et simplicité d’opération. Parmi les alternatives (vSphere, Hyper-V, OpenStack), Proxmox s’impose pour son approche ouverte (KVM/QEMU, LXC), native HA (migration à chaud, bascule automatique), flexible (stockage iSCSI/NFS/ZFS, intégration TrueNAS) et automatisable (API, Terraform, cloud-init). L’architecture repose sur 3 hôtes minimum, des réseaux dédiés (management, stockage, données) et une intégration fluide avec Kubernetes (via Longhorn). Le tout est industrialisé en Infrastructure as Code (Terraform), garantissant reproductibilité et traçabilité. Points clés : séparation des plans de trafic, sauvegardes testées (Proxmox Backup Server), et monitoring rigoureux. Une solution souveraine, économique et scalable, idéale pour des clusters hébergeant 500 à 2000 pods.
NixOS et Proxmox forment un duo puissant pour créer des serveurs reproductibles, déclaratifs et atomiques :
- Déclaratif : Un seul fichier (
configuration.nix) décrit l’état final du système. - Reproductible : Clonez vos VM à l’identique, sans "flocons de neige".
- Atomique : Mises à jour sans risque, avec rollback instantané en cas d’échec.
L’article propose un tutoriel pratique :
- Téléchargement automatisé de l’ISO NixOS.
- Création d’une VM Proxmox via
qm, avec boot UEFI et montage de l’ISO. - Préparation à l’installation via
configuration.nix.
Idéal pour une infrastructure propre, robuste et facile à maintenir. Une approche moderne pour dire adieu au "ça marche sur ma machine" !
L’auteur raconte sa migration de services auto-hébergés depuis un VPS vers un mini-PC à domicile (un Minisforum UM880 Plus), en profitant de l’occasion pour mettre en place une infrastructure plus flexible et robuste avec Proxmox VE. L’objectif est de pouvoir expérimenter (notamment avec Kubernetes) sans risquer de casser sa production, tout en sécurisant ses données via le chiffrement disque et des sauvegardes solides. Après avoir installé Debian avec chiffrement LUKS, il automatise la configuration de Proxmox et du réseau (pont bridge) via Ansible, afin de pouvoir recréer rapidement son infrastructure en cas de vol ou de panne matérielle. Il prévoit d’utiliser OpenTofu et cloud-init pour déployer et configurer des machines virtuelles de manière reproductible, et Ansible pour gérer la configuration des services. Le billet détaille aussi les écueils rencontrés (comme le blocage au démarrage après l’installation de Proxmox, résolu en configurant une IP statique) et explique comment son playbook Ansible permet de tout réinstaller automatiquement. Une suite est annoncée pour aborder le déploiement de VM et la gestion des services avec Kubernetes.
L'article explique comment déployer un cluster Kubernetes en utilisant Proxmox, OpenTofu, et Talos Linux. Il décrit les étapes pour configurer l'environnement, créer des machines virtuelles, et appliquer les configurations nécessaires pour initialiser le cluster Kubernetes. L'article met en avant les avantages de Talos Linux, un système d'exploitation sécurisé et immuable conçu pour Kubernetes, et montre comment utiliser OpenTofu pour automatiser le processus de déploiement. Il inclut également des exemples de code et des conseils pratiques pour gérer le cluster une fois déployé.
Tout est dans le titre
L'article explique comment résoudre un problème de disposition de clavier (azerty) lors de l'utilisation de consoles NoVNC dans Proxmox ou VMware Horizon via Firefox. Le souci vient des paramètres de sécurité renforcée de Firefox, notamment l'option "ResistFingerprinting".
Deux solutions sont proposées :
-
Désactiver l'option "ResistFingerprinting" :
- Aller dans
about:configet mettre la cléprivacy.resistFingerprintingàfalse.
- Aller dans
-
Ajouter des exceptions pour certains domaines :
- Laisser
privacy.resistFingerprintingàtrueet ajouter les domaines problématiques dansprivacy.resistFingerprinting.exemptedDomains.
- Laisser
Ces ajustements permettent de conserver la disposition azerty du clavier sans redémarrer Firefox.
Tout est dans le titre
Tout est dans le titre
Tout est dans le titre
Tout est dans le titre
Tout est dans le titre
Tout est dans le titre
La mise à jour de Proxmox vers la version 8.2.5 peut entraîner une régression des backup automatisés - mais un patch existe