Ploum partage une réflexion inspirée par L’odyssée du pingouin cannibale de Yann Kerninon et Éloge du bug de Marcello Vitali-Rosati : nos outils nous transforment. En citant la phrase "Ce n’est pas le penseur qui fait la pensée, mais la pensée qui fait le penseur", il souligne comment les plateformes façonnent nos comportements et nos idées, souvent en masquant leur matérialité et en nous rendant dépendants. À travers son expérience personnelle (passage de WordPress à un blog statique, découverte de Gemini et du minimalisme numérique), il illustre comment l’adoption d’un outil influence notre manière de penser, d’écrire et même notre idéologie. Il invite à se demander non pas "Qu’est-ce que cet outil peut faire pour moi ?", mais "Qu’est-ce que cet outil va faire de moi ?" — une question cruciale face aux outils "faciles" ou dominants, dont les effets peuvent être insidieux (ex. : réseaux sociaux, PowerPoint, IA). Une invitation à choisir consciemment nos outils pour préserver notre autonomie et notre créativité.
Ross Wintle explore l’idée que le logiciel peut être « terminé », en proposant une définition simple : un logiciel est fini lorsqu’il est fonctionnellement complet et que rien ne doit y être ajouté, même si des évolutions restent possibles. Il souligne que des changements externes (matériel, plateformes, API, outils de build) peuvent rendre un logiciel obsolète, mais que cela ne dépend pas toujours des développeurs. Plutôt que de viser absolument la « finition », il invite à réfléchir aux leçons que cette approche peut apporter, comme la valeur de la stabilité et de la maintenance contrôlée. Il illustre son propos avec l’exemple du Gameboy, dont le logiciel embarqué fonctionne toujours des décennies plus tard, et rappelle que beaucoup d’entreprises reposent sur des mises à jour continues plutôt que sur des produits figés. Une réflexion stimulante sur la durabilité et les limites du contrôle en développement logiciel.
Stephanie Booth propose une réflexion sur la « nétiquette » de l’IA générative, soulignant deux usages problématiques fréquents : laisser l’IA parler à notre place sans transparence (comme utiliser ChatGPT pour répondre à un message en faisant croire que c’est soi, ou partager des créations d’IA sans les attribuer) et inonder les conversations de copier-coller d’outputs IA bruts, ce qui charge les interlocuteurs d’un travail de tri et de vérification non sollicité. Elle insiste sur l’importance de la transparence (préciser quand un contenu est généré par IA), de la collaboration réelle avec ces outils (relire, adapter, s’approprier les productions), et du respect de l’interlocuteur (éviter de rompre le contrat social implicite selon lequel on s’adresse à un humain). L’enjeu est à la fois relationnel et cognitif : préserver l’authenticité des échanges et ne pas contribuer à brouiller la frontière entre le vrai et le faux, surtout dans un contexte où les images et textes générés peuvent déformer notre perception du monde. En résumé : utiliser l’IA comme assistant, mais assumer la responsabilité de ce qu’on partage.
Dans cet article un peu décousu, l'auteur expose ses réflexions sur l'IA dans le développement. Ayant connu l'explosion de la bulle des années 2000, il essaye de relativiser un peu ce que nous vivons ces derniers temps : beaucoup d'emballement. Il poursuit en rappelant que certains devs sont avant tout des passionnés, même si le monde du travail tend à rendre le dev moins excitant en cherchant à tout prix la rentabilité. En particulier, l'automatisation permise par l'IA peut faire gagner du temps, mais gomme l'apprentissage de la résolution de problème par soi-même. Il rappelle aussi qu'il y a 10 ans, la grande mode était de délocaliser le développement à l'étranger... et qu'on en est bien revenus ! Il finit par conclure que l'IA est un outil intéressant pour les profils comme le sien : senior et qui sait ce qu'il fait... mais qu'il demande à voir ce que ça donnera avec des juniors qui n'auront que ça.
L’auteur, développeur expérimenté, partage son retour sur l’utilisation de la GenAI (Claude Code) au quotidien. Il distingue trois usages principaux : le "vibe coding" (génération complète de scripts ou interfaces simples, gain de temps énorme), le "mode chirurgien" (résolution ciblée de bugs complexes ou manipulation de SDK obscurs), et l’assistance pour du code de production (génération de couches techniques répétitives, reviews, agents automatisés). Selon lui, la GenAI ne remplace pas les développeurs — elle libère du temps pour se concentrer sur la réflexion architecturale, l’intégration système et les bonnes pratiques, domaines où l’expertise humaine reste indispensable. Un outil à adopter pour booster sa productivité, mais sans illusions sur la disparition du métier.
L'auteur compare le développement logiciel à la création d’un mandala : un travail minutieux, parfois éphémère, où l’essentiel réside dans le processus plutôt que dans le résultat final. Comme les moines bouddhistes qui effacent leurs mandalas de sable après des jours de travail, les développeurs voient parfois leurs fonctionnalités abandonnées ou modifiées, non par manque de qualité, mais parce que les besoins évoluent. L’article souligne que la valeur du code ne se limite pas à ce qui est déployé, mais aussi à l’apprentissage, aux échanges en équipe et à la compréhension des besoins. Développer, c’est accepter l’impermanence tout en s’investissant pleinement, car c’est dans la démarche collaborative et la qualité du processus que réside la véritable richesse du métier. Une belle métaphore pour rappeler que coder, c’est aussi savoir lâcher prise.
L'auteur insiste sur la nécessité d'un bon support client : c'est lui qui fait pencher la balance du bon côté pour les retours utilisateurs... et ça fait partie de l'UX
Sean Goedecke s’inspire de Seeing Like a State de James C. Scott pour analyser la tension entre "legibility" (lisibilité) et "illegibility" (illisibilité) dans les grandes entreprises technologiques. Les organisations modernes cherchent à maximiser la lisibilité — rendre le travail mesurable, planifiable et traçable — via des outils comme les OKR ou Jira, même si cela réduit souvent l’efficacité réelle. Pourtant, elles dépendent aussi d’un travail illisible (faveurs, savoir tacite, relations informelles), essentiel mais impossible à formaliser. Cette dualité explique pourquoi les grandes entreprises, malgré leur bureaucratie, persistent à privilégier la lisibilité : elle permet la planification à long terme, la coordination avec de grands clients (comme les entreprises), et une apparence de contrôle, même au détriment de l’agilité et de la productivité individuelle. L’auteur illustre comment les zones d’illisibilité (équipes "tiger teams", canaux informels) coexistent avec les processus officiels, souvent de manière non sanctionnée mais indispensable. Une réflexion sur l’équilibre fragile entre structure et flexibilité, où la lisibilité sert surtout les intérêts stratégiques (contrats, scalabilité) plutôt que l’efficacité opérationnelle pure.
L’auteur partage une réflexion personnelle sur l’impact psychologique et social des IA conversationnelles comme ChatGPT, après avoir utilisé l’outil comme confident lors d’une soirée difficile. Il souligne comment ces technologies, conçues pour aider, deviennent pour certains des substituts relationnels, offrant une écoute et une validation inconditionnelles, mais exacerbant paradoxalement la solitude et la dépendance émotionnelle, surtout chez les personnes fragiles ou les adolescents. L’article évoque des cas documentés de troubles mentaux aggravés par ces interactions, ainsi que le risque de désapprentissage des compétences sociales essentielles (gestion du conflit, tolérance à la frustration). L’auteur appelle à une prise de conscience collective, une éducation critique dès l’école, et une régulation plus stricte pour éviter que l’IA ne devienne un miroir toxique de nos vulnérabilités, tout en reconnaissant son potentiel. Une question centrale émerge : comment préserver notre humanité dans un monde où la perfection simulée des machines menace de remplacer l’imperfection enrichissante des relations humaines ?
L'auteur, dessinateur de métier, partage son avis humoristique et critique sur l'art généré par intelligence artificielle. À travers des illustrations et des commentaires percutants, il aborde les limites, les paradoxes et les questions éthiques soulevées par l'utilisation de l'IA pour créer de l'art, tout en soulignant l'importance du travail humain et de la créativité authentique. Un regard décalé et provocateur sur un sujet d'actualité.
L’article aborde la question de l’utilisation éthique des IA musicales en 2025, soulignant leur capacité à générer des morceaux ressemblant à des créations humaines, souvent à partir de données scrappées sur des plateformes comme YouTube ou Spotify, sans toujours obtenir le consentement des artistes. Cela pose des problèmes majeurs de droit d’auteur et de concurrence déloyale, les entreprises technologiques profitant économiquement de contenus créés par d’autres. Si certains utilisateurs y trouvent un outil pratique pour des besoins ponctuels (musique de fond, parodies humoristiques), les musiciens professionnels risquent d’être lésés, leur travail et leur valeur artistique étant dévalués par la production de masse. Cependant, des usages plus vertueux existent, comme la création de backing tracks pour s’entraîner, l’extraction de pistes audio pour faciliter les relevés, ou l’assistance à la composition, à condition de garder une dimension humaine centrale. La Sacem rappelle d’ailleurs que seule une œuvre incluant un apport créatif humain peut être protégée. L’enjeu reste la transparence et la régulation, afin d’éviter que ces technologies ne nuisent davantage aux artistes qu’elles ne les aident.
Ploum partage ses réflexions sur la survalorisation des "grandes idées" et la négation de l’expérience dans la création et l’innovation. À travers des exemples tirés du cinéma (Glass Onion), de l’écriture (Bikepunk), de l’architecture ou du développement logiciel, il rappelle qu’une idée seule ne vaut rien : c’est l’accumulation de décisions, d’adaptations et de compromis qui transforme une étincelle en projet abouti. Il critique aussi l’illusion que les IA pourraient remplacer le travail humain, soulignant que l’expérience, la prise de décision et le "panache" sont irremplaçables. Il évoque enfin sa participation au festival Hypermondes à Mérignac, où il côtoiera des auteurs qu’il admire, non pour échanger des idées, mais pour s’imprégner de leurs parcours et de leur créativité. Un plaidoyer pour le travail, l’apprentissage et l’humilité face à la complexité des projets.
L’IA excelle dans les tâches complexes et calculatoires (résoudre des équations, analyser des données), mais peine sur ce qui nous semble intuitif : reconnaître une ironie, plier une chemise, ou gérer l’imprévu. Ce paradoxe, identifié par Hans Moravec dès 1980, s’observe aujourd’hui dans l’automatisation du travail :
- Les métiers cognitifs routiniers (juristes juniors, traducteurs) sont menacés par l’IA, qui prend en charge les tâches répétitives.
- Les métiers manuels et relationnels (artisans, soignants, éducateurs) résistent, car ils reposent sur l’intuition, la motricité fine et le lien humain.
L’enjeu n’est pas de craindre l’IA, mais de l’utiliser comme une prothèse cognitive : automatiser le répétitif pour se recentrer sur la créativité, l’accompagnement et le sens. La vraie valeur du travail humain se déplace vers ce que les machines ne savent pas faire : interpréter, improviser, créer du lien.
Ploum nous livre ses réflexions sur l'addiction aux réseaux sociaux, aux indices de valorisation sociale ("likes", visites de notre site, etc.) et sur l'inhumanité profonde du monde dominé par le marketing et la propriété intellectuelle.
L’article réfléchit sur l’auto-hébergement à domicile, une pratique qui consiste à gérer soi-même ses services (site web, mails, stockage, etc.) plutôt que de les confier à des prestataires externes. L’auteur rappelle que le cloud et le web reposent sur des machines physiques gérées par des tiers, ce qui soulève des questions de compétence, de sécurité, de souveraineté et de dépendance politique (exemples : incendie du datacenter OVH à Strasbourg, surveillance étatique). Bien que des solutions comme Yunohost ou OpenMediavault facilitent la mise en place d’un serveur domestique, l’auteur souligne les risques (pannes, attaques, perte de données) et la complexité de maintenir un service fiable et sécurisé 24/7. Il distingue l’auto-hébergement "pour jouer" (projets personnels, tests) de l’hébergement professionnel, qu’il préfère déléguer à des experts, même chez les GAFAM, pour des usages critiques (mails, site à fort trafic). Il partage son expérience avec un serveur Ubuntu hébergeant Nextcloud et MiniDLNA, mais conclut que l’auto-hébergement reste un loisir technique, réservé à des usages non essentiels et assumés en conscience des limites et des risques.
Encore un texte passionnant de Ploum qui fait réfléchir (et sourcé, toutes les sources lui permettant d'alimenter sa réflexion).
L'espionnage de masse est bien pire que ce que l'on imagine mais l'Europe protège un tout petit peu ses citoyens.
On est saturés d'indignation sans rien faire mais il y a quelques actions très concrètes (comme supprimer Whatsapp) : il faut accepter la difficulté, l'inconfort et le fait que ces actions ne seront jamais reconnues ou applaudies.
La merdification est à l'oeuvre de partout, même sur des applications qui paraissaient sûres puisque les fondateurs s'y étaient engagés... jusqu'à l'arrivée d'un gros chèque. Seul le logiciel libre peut lutter, à condition de ne pas chercher l'ajout de fonctionnalités superflues.
Ploum nous encourage aussi à ralentir et prendre du recul (cf son dernier échange avec Chris Brannons)
Enfin il nous encourage aussi à faire du vélo, comme symbole d'indépendance et de liberté.
Les entreprises ne se soucient ni de la productivité ni du management moderne, seulement du contrôle et des cours boursiers. Malgré les preuves accumulées (bureaux ouverts nuisibles, télétravail bénéfique pour le sommeil et les coûts, etc.), les dirigeants ignorent les théories managériales éprouvées (comme celles de Deming) au profit de la surveillance et de l’autoritarisme. Même si les outils d’IA générative promettent des gains de productivité, leur variabilité et leurs coûts cachés (verrouillage, impact environnemental, risques politiques) en font un pari dangereux, surtout couplés à des licenciements. Pire, leur adoption reflète souvent une logique de bulle spéculative, où les avertissements rationnels sont ignorés — comme avant l’éclatement de la bulle immobilière de 2008. En réalité, ces outils, en augmentant la variabilité des tâches, risquent de paralyser les organisations en surchargeant les processus et en réduisant la capacité réelle de travail. Résultat : une course à l’abîme, où seuls comptent le contrôle et l’illusion de l’innovation, au mépris de l’efficacité et du bien-être. Une analyse systémique révèle leur toxicité, mais personne n’écoute : ceux qui en ont les moyens fuient déjà la bulle, les autres subissent.
L'article explore comment les jeux vidéo peuvent enseigner des compétences et des concepts précieux. L'auteur commence par évoquer l'idée de Steve Jobs sur la connexion des points de la vie rétrospectivement, suggérant que chaque expérience, même frivole, peut offrir des leçons précieuses. Il partage ses réflexions sur les jeux de plateforme, comme ceux de Mario, qui excellent dans l'enseignement intuitif des mécaniques de jeu sans recourir à des tutoriels textuels. Il discute également des jeux roguelikes, qui illustrent l'importance de l'adaptation et de l'exploitation des non-linéarités pour réussir. Les simulateurs de ferme comme Stardew Valley sont présentés comme des outils pour comprendre la gestion des flux de trésorerie et la mise à l'échelle des opérations. Enfin, il aborde les jeux de combat comme Super Smash Bros, soulignant l'importance de comprendre la métagame et de s'adapter aux tendances changeantes pour exceller. En somme, il montre que les jeux vidéo peuvent être bien plus que de simples divertissements, offrant des leçons applicables dans divers aspects de la vie réelle.
Un billet d'humeur... dont je plussoie la conclusion
L'article explore comment l'intelligence artificielle peut être utilisée comme un outil pour améliorer la pensée critique et la rigueur intellectuelle. Plutôt que de blâmer l'IA pour ses défauts, l'auteur souligne que c'est l'usage que nous en faisons qui détermine son impact. L'article propose des exemples de prompts pour utiliser l'IA de manière constructive, encourageant les utilisateurs à poser des questions exigeantes et réfléchies. Il met également en garde contre les limites de l'IA et insiste sur l'importance de l'engagement et de la curiosité humaine pour en tirer le meilleur parti.
 
