Un billet d'humeur... dont je plussoie la conclusion
L'article explore comment l'intelligence artificielle peut être utilisée comme un outil pour améliorer la pensée critique et la rigueur intellectuelle. Plutôt que de blâmer l'IA pour ses défauts, l'auteur souligne que c'est l'usage que nous en faisons qui détermine son impact. L'article propose des exemples de prompts pour utiliser l'IA de manière constructive, encourageant les utilisateurs à poser des questions exigeantes et réfléchies. Il met également en garde contre les limites de l'IA et insiste sur l'importance de l'engagement et de la curiosité humaine pour en tirer le meilleur parti.
L'auteur expose les points qui font que l'IA n'est pas prête pour remplacer les développeurs... mais va quand même causer de sacrés dégâts, notamment chez les développeurs junior.
L'article souligne qu'il est presque impossible pour les individus d'évaluer les avantages ou les inconvénients des chatbots et des agents par eux-mêmes en raison des biais cognitifs qu'ils déclenchent. Il critique également la mauvaise qualité des recherches dans les domaines de la technologie et de la productivité, souvent influencées par le marketing. L'auteur met en garde contre l'effet de la bulle de l'IA, qui biaise presque tout le monde, y compris les institutions et les autorités. Il conclut en affirmant que, face à ces enjeux, la décision rationnelle et responsable est d'éviter les modèles génératifs jusqu'à ce que la bulle éclate.
L'article met en garde contre les dangers de se fier à son propre jugement concernant l'intelligence artificielle. Il souligne que les mécanismes de notre pensée peuvent être facilement trompés, rendant même les personnes intelligentes vulnérables à la manipulation. L'auteur utilise des exemples tirés de livres sur la psychologie et des expériences personnelles pour illustrer comment les biais cognitifs peuvent fausser notre jugement. Il conclut en insistant sur l'importance de s'appuyer sur des recherches scientifiques impartiales plutôt que sur des expériences personnelles pour évaluer les technologies d'IA.
L'auteur constate que, dans son flux d'actualité, la qualité globale des articles diminue, en particulier pour le raisonnement. Par exemple, il suit des auteurs avec lesquels il n'est pas d'accord, mais dont les raisonnements lui paraissent corrects bien qu'incomplets. L'auteur a souffert du "brouillard COVID", une affection qui rendait la réflexion particulièrement compliquée. Il se demande si cette affection n'est pas beaucoup plus répandue qu'on ne le croit, car les articles qu'il lit lui semblent rédigées par des personnes infectées. Enfin, il soupçonne aussi que l'utilisation par nombre d'auteurs de l'intelligence artificielle pour reformuler leurs écrits induise une diminution de leur capacité d'écriture. Il est d'ores et déjà montré que l'utilisation de l'IA sans recul provoque une perte d'esprit critique.
Un long article à charge - l'autrice explique pourquoi - contre l'utilisation des IA génératives : impacts socio-environnementaux, contexte politique et économique du déploiement de ces outils, alternatives éthiques et souveraines qui pourraient avoir plutôt un effet rebond, gains de temps illusoires, créativité figée, perte de compétence, etc.
C'est un très beau texte sur le ressenti de l'auteur vis-à-vis de l'intelligence artificielle, et de comment elle s'est immiscée dans nos vies
L'auteur explore la complexité de faire confiance à l'expertise. Il admet que, malgré avoir lu de nombreux livres sur la nutrition, il reste beaucoup de choses qu'il ne sait pas. Young souligne que faire confiance aux experts n'est pas une tâche intellectuellement simple. Cela nécessite un travail considérable pour aligner sa vision du monde avec celle des experts. Il argue que les experts, en général, ont des opinions plus précises que les non-experts, et que la majorité des opinions d'experts est souvent plus fiable que les opinions individuelles. Cependant, il reconnaît aussi les défis, comme les biais et les limites des modèles utilisés par les experts, qui peuvent parfois justifier un certain scepticisme. En fin de compte, Young plaide pour une approche équilibrée, où l'on donne du poids aux perspectives dominantes des experts tout en restant ouvert à des points de vue contraires bien fondés
.
L'article explore les traits communs des meilleurs développeurs. L'auteur souligne l'importance de lire la documentation officielle, de maîtriser ses outils, et de comprendre les messages d'erreur. Il met également en avant la capacité à décomposer les problèmes, à ne pas hésiter à se plonger dans le code, et à toujours aider les autres. Enfin, il insiste sur l'importance de l'écriture, de l'apprentissage continu, et de la patience dans le développement logiciel.
Ploum met en lumière les dangers de l'incapacité à maintenir son attention (exemple du haut responsable américain qui invite un journaliste par erreur), les dangers de l'addiction aux réseaux sociaux pour les politiciens et les dangers de l'utilisation de ChatGPT pour masquer son incompétence en entretien d'embauche... alors que celle-ci sera nécessairement révélée dès les premiers jours du travail. Il appelle à une meilleure éducation pour éviter ces écueils et à soutenir la génération suivante, qui montre un désir d'apprendre et de s'engager.
Résumé de cet excellent article : les entreprises ne sont pas nos amies pour la protection de la vie privée, et il faut réellement privilégier les solutions libres
L'article traite d'un phénomène courant dans le développement logiciel où des outils complexes ou peu familiers ne sont pas utilisés de novo, mais plutôt copiés et ajustés à partir d'exemples précédents. Ce phénomène, qu'il baptise « l'effet Makefile », est observé chez les ingénieurs de tous niveaux d'expérience. Par exemple, au lieu d'écrire un nouveau Makefile
, un ingénieur copie souvent un Makefile
existant d'un projet antérieur et le modifie jusqu'à ce qu'il fonctionne dans le nouveau contexte. Bien que cela puisse sembler efficace à court terme, cela indique que l'outil est trop compliqué ou ennuyeux à utiliser de zéro. Ce phénomène est également observé dans d'autres domaines comme les configurations CI/CD et les systèmes de build. L'auteur souligne que les outils qui encouragent ce comportement peuvent avoir des diagnostics ou un support de débogage moins qu'idéaux, décourager l'apprentissage approfondi, et être plus difficiles à utiliser de manière sécurisée. Il suggère que les concepteurs d'outils devraient viser à minimiser cet effet en rendant les outils plus intuitifs et faciles à utiliser dès le départ.
L'article dénonce la "merdification" du web causée par le SEO et l'IA, qui génèrent du contenu de faible qualité et surchargent les infrastructures. L'auteur appelle à un retour aux petites communautés et à des espaces alternatifs pour échapper à cette dégradation. Il conclut que de nombreux clients préfèrent suivre des modes technologiques sans comprendre leurs besoins réels, ce qui les rend vulnérables aux arnaques.
Tout est dans le titre
Tout est dans le titre
...
Tout est dans le titre
Un article très intéressant dans lequel l'auteur compare 2 styles de développement (piloté par les données versus piloté par les besoins métiers), et leur relation avec l'automatisation possible ou non de process métiers.