Encore un texte passionnant de Ploum qui fait réfléchir (et sourcé, toutes les sources lui permettant d'alimenter sa réflexion).
L'espionnage de masse est bien pire que ce que l'on imagine mais l'Europe protège un tout petit peu ses citoyens.
On est saturés d'indignation sans rien faire mais il y a quelques actions très concrètes (comme supprimer Whatsapp) : il faut accepter la difficulté, l'inconfort et le fait que ces actions ne seront jamais reconnues ou applaudies.
La merdification est à l'oeuvre de partout, même sur des applications qui paraissaient sûres puisque les fondateurs s'y étaient engagés... jusqu'à l'arrivée d'un gros chèque. Seul le logiciel libre peut lutter, à condition de ne pas chercher l'ajout de fonctionnalités superflues.
Ploum nous encourage aussi à ralentir et prendre du recul (cf son dernier échange avec Chris Brannons)
Enfin il nous encourage aussi à faire du vélo, comme symbole d'indépendance et de liberté.
Les entreprises ne se soucient ni de la productivité ni du management moderne, seulement du contrôle et des cours boursiers. Malgré les preuves accumulées (bureaux ouverts nuisibles, télétravail bénéfique pour le sommeil et les coûts, etc.), les dirigeants ignorent les théories managériales éprouvées (comme celles de Deming) au profit de la surveillance et de l’autoritarisme. Même si les outils d’IA générative promettent des gains de productivité, leur variabilité et leurs coûts cachés (verrouillage, impact environnemental, risques politiques) en font un pari dangereux, surtout couplés à des licenciements. Pire, leur adoption reflète souvent une logique de bulle spéculative, où les avertissements rationnels sont ignorés — comme avant l’éclatement de la bulle immobilière de 2008. En réalité, ces outils, en augmentant la variabilité des tâches, risquent de paralyser les organisations en surchargeant les processus et en réduisant la capacité réelle de travail. Résultat : une course à l’abîme, où seuls comptent le contrôle et l’illusion de l’innovation, au mépris de l’efficacité et du bien-être. Une analyse systémique révèle leur toxicité, mais personne n’écoute : ceux qui en ont les moyens fuient déjà la bulle, les autres subissent.
L'article explore comment les jeux vidéo peuvent enseigner des compétences et des concepts précieux. L'auteur commence par évoquer l'idée de Steve Jobs sur la connexion des points de la vie rétrospectivement, suggérant que chaque expérience, même frivole, peut offrir des leçons précieuses. Il partage ses réflexions sur les jeux de plateforme, comme ceux de Mario, qui excellent dans l'enseignement intuitif des mécaniques de jeu sans recourir à des tutoriels textuels. Il discute également des jeux roguelikes, qui illustrent l'importance de l'adaptation et de l'exploitation des non-linéarités pour réussir. Les simulateurs de ferme comme Stardew Valley sont présentés comme des outils pour comprendre la gestion des flux de trésorerie et la mise à l'échelle des opérations. Enfin, il aborde les jeux de combat comme Super Smash Bros, soulignant l'importance de comprendre la métagame et de s'adapter aux tendances changeantes pour exceller. En somme, il montre que les jeux vidéo peuvent être bien plus que de simples divertissements, offrant des leçons applicables dans divers aspects de la vie réelle.
Un billet d'humeur... dont je plussoie la conclusion
L'article explore comment l'intelligence artificielle peut être utilisée comme un outil pour améliorer la pensée critique et la rigueur intellectuelle. Plutôt que de blâmer l'IA pour ses défauts, l'auteur souligne que c'est l'usage que nous en faisons qui détermine son impact. L'article propose des exemples de prompts pour utiliser l'IA de manière constructive, encourageant les utilisateurs à poser des questions exigeantes et réfléchies. Il met également en garde contre les limites de l'IA et insiste sur l'importance de l'engagement et de la curiosité humaine pour en tirer le meilleur parti.
L'auteur expose les points qui font que l'IA n'est pas prête pour remplacer les développeurs... mais va quand même causer de sacrés dégâts, notamment chez les développeurs junior.
L'article souligne qu'il est presque impossible pour les individus d'évaluer les avantages ou les inconvénients des chatbots et des agents par eux-mêmes en raison des biais cognitifs qu'ils déclenchent. Il critique également la mauvaise qualité des recherches dans les domaines de la technologie et de la productivité, souvent influencées par le marketing. L'auteur met en garde contre l'effet de la bulle de l'IA, qui biaise presque tout le monde, y compris les institutions et les autorités. Il conclut en affirmant que, face à ces enjeux, la décision rationnelle et responsable est d'éviter les modèles génératifs jusqu'à ce que la bulle éclate.
L'article met en garde contre les dangers de se fier à son propre jugement concernant l'intelligence artificielle. Il souligne que les mécanismes de notre pensée peuvent être facilement trompés, rendant même les personnes intelligentes vulnérables à la manipulation. L'auteur utilise des exemples tirés de livres sur la psychologie et des expériences personnelles pour illustrer comment les biais cognitifs peuvent fausser notre jugement. Il conclut en insistant sur l'importance de s'appuyer sur des recherches scientifiques impartiales plutôt que sur des expériences personnelles pour évaluer les technologies d'IA.
L'auteur constate que, dans son flux d'actualité, la qualité globale des articles diminue, en particulier pour le raisonnement. Par exemple, il suit des auteurs avec lesquels il n'est pas d'accord, mais dont les raisonnements lui paraissent corrects bien qu'incomplets. L'auteur a souffert du "brouillard COVID", une affection qui rendait la réflexion particulièrement compliquée. Il se demande si cette affection n'est pas beaucoup plus répandue qu'on ne le croit, car les articles qu'il lit lui semblent rédigées par des personnes infectées. Enfin, il soupçonne aussi que l'utilisation par nombre d'auteurs de l'intelligence artificielle pour reformuler leurs écrits induise une diminution de leur capacité d'écriture. Il est d'ores et déjà montré que l'utilisation de l'IA sans recul provoque une perte d'esprit critique.
Un long article à charge - l'autrice explique pourquoi - contre l'utilisation des IA génératives : impacts socio-environnementaux, contexte politique et économique du déploiement de ces outils, alternatives éthiques et souveraines qui pourraient avoir plutôt un effet rebond, gains de temps illusoires, créativité figée, perte de compétence, etc.
C'est un très beau texte sur le ressenti de l'auteur vis-à-vis de l'intelligence artificielle, et de comment elle s'est immiscée dans nos vies
L'auteur explore la complexité de faire confiance à l'expertise. Il admet que, malgré avoir lu de nombreux livres sur la nutrition, il reste beaucoup de choses qu'il ne sait pas. Young souligne que faire confiance aux experts n'est pas une tâche intellectuellement simple. Cela nécessite un travail considérable pour aligner sa vision du monde avec celle des experts. Il argue que les experts, en général, ont des opinions plus précises que les non-experts, et que la majorité des opinions d'experts est souvent plus fiable que les opinions individuelles. Cependant, il reconnaît aussi les défis, comme les biais et les limites des modèles utilisés par les experts, qui peuvent parfois justifier un certain scepticisme. En fin de compte, Young plaide pour une approche équilibrée, où l'on donne du poids aux perspectives dominantes des experts tout en restant ouvert à des points de vue contraires bien fondés
.
L'article explore les traits communs des meilleurs développeurs. L'auteur souligne l'importance de lire la documentation officielle, de maîtriser ses outils, et de comprendre les messages d'erreur. Il met également en avant la capacité à décomposer les problèmes, à ne pas hésiter à se plonger dans le code, et à toujours aider les autres. Enfin, il insiste sur l'importance de l'écriture, de l'apprentissage continu, et de la patience dans le développement logiciel.
Ploum met en lumière les dangers de l'incapacité à maintenir son attention (exemple du haut responsable américain qui invite un journaliste par erreur), les dangers de l'addiction aux réseaux sociaux pour les politiciens et les dangers de l'utilisation de ChatGPT pour masquer son incompétence en entretien d'embauche... alors que celle-ci sera nécessairement révélée dès les premiers jours du travail. Il appelle à une meilleure éducation pour éviter ces écueils et à soutenir la génération suivante, qui montre un désir d'apprendre et de s'engager.
Résumé de cet excellent article : les entreprises ne sont pas nos amies pour la protection de la vie privée, et il faut réellement privilégier les solutions libres
L'article traite d'un phénomène courant dans le développement logiciel où des outils complexes ou peu familiers ne sont pas utilisés de novo, mais plutôt copiés et ajustés à partir d'exemples précédents. Ce phénomène, qu'il baptise « l'effet Makefile », est observé chez les ingénieurs de tous niveaux d'expérience. Par exemple, au lieu d'écrire un nouveau Makefile
, un ingénieur copie souvent un Makefile
existant d'un projet antérieur et le modifie jusqu'à ce qu'il fonctionne dans le nouveau contexte. Bien que cela puisse sembler efficace à court terme, cela indique que l'outil est trop compliqué ou ennuyeux à utiliser de zéro. Ce phénomène est également observé dans d'autres domaines comme les configurations CI/CD et les systèmes de build. L'auteur souligne que les outils qui encouragent ce comportement peuvent avoir des diagnostics ou un support de débogage moins qu'idéaux, décourager l'apprentissage approfondi, et être plus difficiles à utiliser de manière sécurisée. Il suggère que les concepteurs d'outils devraient viser à minimiser cet effet en rendant les outils plus intuitifs et faciles à utiliser dès le départ.
L'article dénonce la "merdification" du web causée par le SEO et l'IA, qui génèrent du contenu de faible qualité et surchargent les infrastructures. L'auteur appelle à un retour aux petites communautés et à des espaces alternatifs pour échapper à cette dégradation. Il conclut que de nombreux clients préfèrent suivre des modes technologiques sans comprendre leurs besoins réels, ce qui les rend vulnérables aux arnaques.
Tout est dans le titre
Tout est dans le titre