L’article aborde la question de l’utilisation éthique des IA musicales en 2025, soulignant leur capacité à générer des morceaux ressemblant à des créations humaines, souvent à partir de données scrappées sur des plateformes comme YouTube ou Spotify, sans toujours obtenir le consentement des artistes. Cela pose des problèmes majeurs de droit d’auteur et de concurrence déloyale, les entreprises technologiques profitant économiquement de contenus créés par d’autres. Si certains utilisateurs y trouvent un outil pratique pour des besoins ponctuels (musique de fond, parodies humoristiques), les musiciens professionnels risquent d’être lésés, leur travail et leur valeur artistique étant dévalués par la production de masse. Cependant, des usages plus vertueux existent, comme la création de backing tracks pour s’entraîner, l’extraction de pistes audio pour faciliter les relevés, ou l’assistance à la composition, à condition de garder une dimension humaine centrale. La Sacem rappelle d’ailleurs que seule une œuvre incluant un apport créatif humain peut être protégée. L’enjeu reste la transparence et la régulation, afin d’éviter que ces technologies ne nuisent davantage aux artistes qu’elles ne les aident.
Ploum partage ses réflexions sur la survalorisation des "grandes idées" et la négation de l’expérience dans la création et l’innovation. À travers des exemples tirés du cinéma (Glass Onion), de l’écriture (Bikepunk), de l’architecture ou du développement logiciel, il rappelle qu’une idée seule ne vaut rien : c’est l’accumulation de décisions, d’adaptations et de compromis qui transforme une étincelle en projet abouti. Il critique aussi l’illusion que les IA pourraient remplacer le travail humain, soulignant que l’expérience, la prise de décision et le "panache" sont irremplaçables. Il évoque enfin sa participation au festival Hypermondes à Mérignac, où il côtoiera des auteurs qu’il admire, non pour échanger des idées, mais pour s’imprégner de leurs parcours et de leur créativité. Un plaidoyer pour le travail, l’apprentissage et l’humilité face à la complexité des projets.
L’IA excelle dans les tâches complexes et calculatoires (résoudre des équations, analyser des données), mais peine sur ce qui nous semble intuitif : reconnaître une ironie, plier une chemise, ou gérer l’imprévu. Ce paradoxe, identifié par Hans Moravec dès 1980, s’observe aujourd’hui dans l’automatisation du travail :
- Les métiers cognitifs routiniers (juristes juniors, traducteurs) sont menacés par l’IA, qui prend en charge les tâches répétitives.
- Les métiers manuels et relationnels (artisans, soignants, éducateurs) résistent, car ils reposent sur l’intuition, la motricité fine et le lien humain.
L’enjeu n’est pas de craindre l’IA, mais de l’utiliser comme une prothèse cognitive : automatiser le répétitif pour se recentrer sur la créativité, l’accompagnement et le sens. La vraie valeur du travail humain se déplace vers ce que les machines ne savent pas faire : interpréter, improviser, créer du lien.
Ploum nous livre ses réflexions sur l'addiction aux réseaux sociaux, aux indices de valorisation sociale ("likes", visites de notre site, etc.) et sur l'inhumanité profonde du monde dominé par le marketing et la propriété intellectuelle.
L’article réfléchit sur l’auto-hébergement à domicile, une pratique qui consiste à gérer soi-même ses services (site web, mails, stockage, etc.) plutôt que de les confier à des prestataires externes. L’auteur rappelle que le cloud et le web reposent sur des machines physiques gérées par des tiers, ce qui soulève des questions de compétence, de sécurité, de souveraineté et de dépendance politique (exemples : incendie du datacenter OVH à Strasbourg, surveillance étatique). Bien que des solutions comme Yunohost ou OpenMediavault facilitent la mise en place d’un serveur domestique, l’auteur souligne les risques (pannes, attaques, perte de données) et la complexité de maintenir un service fiable et sécurisé 24/7. Il distingue l’auto-hébergement "pour jouer" (projets personnels, tests) de l’hébergement professionnel, qu’il préfère déléguer à des experts, même chez les GAFAM, pour des usages critiques (mails, site à fort trafic). Il partage son expérience avec un serveur Ubuntu hébergeant Nextcloud et MiniDLNA, mais conclut que l’auto-hébergement reste un loisir technique, réservé à des usages non essentiels et assumés en conscience des limites et des risques.
Encore un texte passionnant de Ploum qui fait réfléchir (et sourcé, toutes les sources lui permettant d'alimenter sa réflexion).
L'espionnage de masse est bien pire que ce que l'on imagine mais l'Europe protège un tout petit peu ses citoyens.
On est saturés d'indignation sans rien faire mais il y a quelques actions très concrètes (comme supprimer Whatsapp) : il faut accepter la difficulté, l'inconfort et le fait que ces actions ne seront jamais reconnues ou applaudies.
La merdification est à l'oeuvre de partout, même sur des applications qui paraissaient sûres puisque les fondateurs s'y étaient engagés... jusqu'à l'arrivée d'un gros chèque. Seul le logiciel libre peut lutter, à condition de ne pas chercher l'ajout de fonctionnalités superflues.
Ploum nous encourage aussi à ralentir et prendre du recul (cf son dernier échange avec Chris Brannons)
Enfin il nous encourage aussi à faire du vélo, comme symbole d'indépendance et de liberté.
Les entreprises ne se soucient ni de la productivité ni du management moderne, seulement du contrôle et des cours boursiers. Malgré les preuves accumulées (bureaux ouverts nuisibles, télétravail bénéfique pour le sommeil et les coûts, etc.), les dirigeants ignorent les théories managériales éprouvées (comme celles de Deming) au profit de la surveillance et de l’autoritarisme. Même si les outils d’IA générative promettent des gains de productivité, leur variabilité et leurs coûts cachés (verrouillage, impact environnemental, risques politiques) en font un pari dangereux, surtout couplés à des licenciements. Pire, leur adoption reflète souvent une logique de bulle spéculative, où les avertissements rationnels sont ignorés — comme avant l’éclatement de la bulle immobilière de 2008. En réalité, ces outils, en augmentant la variabilité des tâches, risquent de paralyser les organisations en surchargeant les processus et en réduisant la capacité réelle de travail. Résultat : une course à l’abîme, où seuls comptent le contrôle et l’illusion de l’innovation, au mépris de l’efficacité et du bien-être. Une analyse systémique révèle leur toxicité, mais personne n’écoute : ceux qui en ont les moyens fuient déjà la bulle, les autres subissent.
L'article explore comment les jeux vidéo peuvent enseigner des compétences et des concepts précieux. L'auteur commence par évoquer l'idée de Steve Jobs sur la connexion des points de la vie rétrospectivement, suggérant que chaque expérience, même frivole, peut offrir des leçons précieuses. Il partage ses réflexions sur les jeux de plateforme, comme ceux de Mario, qui excellent dans l'enseignement intuitif des mécaniques de jeu sans recourir à des tutoriels textuels. Il discute également des jeux roguelikes, qui illustrent l'importance de l'adaptation et de l'exploitation des non-linéarités pour réussir. Les simulateurs de ferme comme Stardew Valley sont présentés comme des outils pour comprendre la gestion des flux de trésorerie et la mise à l'échelle des opérations. Enfin, il aborde les jeux de combat comme Super Smash Bros, soulignant l'importance de comprendre la métagame et de s'adapter aux tendances changeantes pour exceller. En somme, il montre que les jeux vidéo peuvent être bien plus que de simples divertissements, offrant des leçons applicables dans divers aspects de la vie réelle.
Un billet d'humeur... dont je plussoie la conclusion
L'article explore comment l'intelligence artificielle peut être utilisée comme un outil pour améliorer la pensée critique et la rigueur intellectuelle. Plutôt que de blâmer l'IA pour ses défauts, l'auteur souligne que c'est l'usage que nous en faisons qui détermine son impact. L'article propose des exemples de prompts pour utiliser l'IA de manière constructive, encourageant les utilisateurs à poser des questions exigeantes et réfléchies. Il met également en garde contre les limites de l'IA et insiste sur l'importance de l'engagement et de la curiosité humaine pour en tirer le meilleur parti.
L'auteur expose les points qui font que l'IA n'est pas prête pour remplacer les développeurs... mais va quand même causer de sacrés dégâts, notamment chez les développeurs junior.
L'article souligne qu'il est presque impossible pour les individus d'évaluer les avantages ou les inconvénients des chatbots et des agents par eux-mêmes en raison des biais cognitifs qu'ils déclenchent. Il critique également la mauvaise qualité des recherches dans les domaines de la technologie et de la productivité, souvent influencées par le marketing. L'auteur met en garde contre l'effet de la bulle de l'IA, qui biaise presque tout le monde, y compris les institutions et les autorités. Il conclut en affirmant que, face à ces enjeux, la décision rationnelle et responsable est d'éviter les modèles génératifs jusqu'à ce que la bulle éclate.
L'article met en garde contre les dangers de se fier à son propre jugement concernant l'intelligence artificielle. Il souligne que les mécanismes de notre pensée peuvent être facilement trompés, rendant même les personnes intelligentes vulnérables à la manipulation. L'auteur utilise des exemples tirés de livres sur la psychologie et des expériences personnelles pour illustrer comment les biais cognitifs peuvent fausser notre jugement. Il conclut en insistant sur l'importance de s'appuyer sur des recherches scientifiques impartiales plutôt que sur des expériences personnelles pour évaluer les technologies d'IA.
L'auteur constate que, dans son flux d'actualité, la qualité globale des articles diminue, en particulier pour le raisonnement. Par exemple, il suit des auteurs avec lesquels il n'est pas d'accord, mais dont les raisonnements lui paraissent corrects bien qu'incomplets. L'auteur a souffert du "brouillard COVID", une affection qui rendait la réflexion particulièrement compliquée. Il se demande si cette affection n'est pas beaucoup plus répandue qu'on ne le croit, car les articles qu'il lit lui semblent rédigées par des personnes infectées. Enfin, il soupçonne aussi que l'utilisation par nombre d'auteurs de l'intelligence artificielle pour reformuler leurs écrits induise une diminution de leur capacité d'écriture. Il est d'ores et déjà montré que l'utilisation de l'IA sans recul provoque une perte d'esprit critique.
Un long article à charge - l'autrice explique pourquoi - contre l'utilisation des IA génératives : impacts socio-environnementaux, contexte politique et économique du déploiement de ces outils, alternatives éthiques et souveraines qui pourraient avoir plutôt un effet rebond, gains de temps illusoires, créativité figée, perte de compétence, etc.
C'est un très beau texte sur le ressenti de l'auteur vis-à-vis de l'intelligence artificielle, et de comment elle s'est immiscée dans nos vies
L'auteur explore la complexité de faire confiance à l'expertise. Il admet que, malgré avoir lu de nombreux livres sur la nutrition, il reste beaucoup de choses qu'il ne sait pas. Young souligne que faire confiance aux experts n'est pas une tâche intellectuellement simple. Cela nécessite un travail considérable pour aligner sa vision du monde avec celle des experts. Il argue que les experts, en général, ont des opinions plus précises que les non-experts, et que la majorité des opinions d'experts est souvent plus fiable que les opinions individuelles. Cependant, il reconnaît aussi les défis, comme les biais et les limites des modèles utilisés par les experts, qui peuvent parfois justifier un certain scepticisme. En fin de compte, Young plaide pour une approche équilibrée, où l'on donne du poids aux perspectives dominantes des experts tout en restant ouvert à des points de vue contraires bien fondés
.
L'article explore les traits communs des meilleurs développeurs. L'auteur souligne l'importance de lire la documentation officielle, de maîtriser ses outils, et de comprendre les messages d'erreur. Il met également en avant la capacité à décomposer les problèmes, à ne pas hésiter à se plonger dans le code, et à toujours aider les autres. Enfin, il insiste sur l'importance de l'écriture, de l'apprentissage continu, et de la patience dans le développement logiciel.
Ploum met en lumière les dangers de l'incapacité à maintenir son attention (exemple du haut responsable américain qui invite un journaliste par erreur), les dangers de l'addiction aux réseaux sociaux pour les politiciens et les dangers de l'utilisation de ChatGPT pour masquer son incompétence en entretien d'embauche... alors que celle-ci sera nécessairement révélée dès les premiers jours du travail. Il appelle à une meilleure éducation pour éviter ces écueils et à soutenir la génération suivante, qui montre un désir d'apprendre et de s'engager.
Résumé de cet excellent article : les entreprises ne sont pas nos amies pour la protection de la vie privée, et il faut réellement privilégier les solutions libres