L'article explore comment l'intelligence artificielle peut être utilisée comme un outil pour améliorer la pensée critique et la rigueur intellectuelle. Plutôt que de blâmer l'IA pour ses défauts, l'auteur souligne que c'est l'usage que nous en faisons qui détermine son impact. L'article propose des exemples de prompts pour utiliser l'IA de manière constructive, encourageant les utilisateurs à poser des questions exigeantes et réfléchies. Il met également en garde contre les limites de l'IA et insiste sur l'importance de l'engagement et de la curiosité humaine pour en tirer le meilleur parti.
L'auteur expose les points qui font que l'IA n'est pas prête pour remplacer les développeurs... mais va quand même causer de sacrés dégâts, notamment chez les développeurs junior.
L'article souligne qu'il est presque impossible pour les individus d'évaluer les avantages ou les inconvénients des chatbots et des agents par eux-mêmes en raison des biais cognitifs qu'ils déclenchent. Il critique également la mauvaise qualité des recherches dans les domaines de la technologie et de la productivité, souvent influencées par le marketing. L'auteur met en garde contre l'effet de la bulle de l'IA, qui biaise presque tout le monde, y compris les institutions et les autorités. Il conclut en affirmant que, face à ces enjeux, la décision rationnelle et responsable est d'éviter les modèles génératifs jusqu'à ce que la bulle éclate.
L'article met en garde contre les dangers de se fier à son propre jugement concernant l'intelligence artificielle. Il souligne que les mécanismes de notre pensée peuvent être facilement trompés, rendant même les personnes intelligentes vulnérables à la manipulation. L'auteur utilise des exemples tirés de livres sur la psychologie et des expériences personnelles pour illustrer comment les biais cognitifs peuvent fausser notre jugement. Il conclut en insistant sur l'importance de s'appuyer sur des recherches scientifiques impartiales plutôt que sur des expériences personnelles pour évaluer les technologies d'IA.
L'auteur constate que, dans son flux d'actualité, la qualité globale des articles diminue, en particulier pour le raisonnement. Par exemple, il suit des auteurs avec lesquels il n'est pas d'accord, mais dont les raisonnements lui paraissent corrects bien qu'incomplets. L'auteur a souffert du "brouillard COVID", une affection qui rendait la réflexion particulièrement compliquée. Il se demande si cette affection n'est pas beaucoup plus répandue qu'on ne le croit, car les articles qu'il lit lui semblent rédigées par des personnes infectées. Enfin, il soupçonne aussi que l'utilisation par nombre d'auteurs de l'intelligence artificielle pour reformuler leurs écrits induise une diminution de leur capacité d'écriture. Il est d'ores et déjà montré que l'utilisation de l'IA sans recul provoque une perte d'esprit critique.
À force de chercher des textes générés par l'IA, on finit par trouver plein de faux positifs... Là, c'est le Hollandais Volant qui en est victime, tout ça parce qu'il utilise correctement la typographie. Comme il l'explique lui-même dans son article, ça peut poser de vrais problèmes pour certains : thésards accusés injustement, etc.
Le Model Context Protocol (MCP) est un protocole standardisé qui permet aux modèles de langage d'accéder en temps réel au contexte spécifique des utilisateurs à partir de diverses sources de données. Ce protocole a été rapidement adopté par des entreprises majeures comme OpenAI, Google et Microsoft, démontrant son importance croissante dans l'industrie. Le MCP facilite l'intégration des modèles de langage avec des sources de données externes, telles que les outils de développement et les systèmes CRM, en s'appuyant sur les fondations du Language Server Protocol (LSP). Il résout un problème fondamental des modèles de langage en leur permettant d'accéder à des données privées ou spécifiques à une organisation, offrant ainsi des intégrations plus profondes et des réponses plus pertinentes.
L'article présente une implémentation d'un serveur MCP en utilisant TypeScript et le SDK officiel @modelcontextprotocol/sdk
. L'exemple illustre un système de classement spatial avec des astronautes et des planètes. Voici les points clés de cette implémentation :
-
Structure du Serveur : La classe principale du serveur MCP est créée en héritant de la classe
Server
du SDK MCP. Elle est configurée avec des capacités pour les outils, les ressources et les prompts. -
Outils (Tools) : Les outils permettent aux modèles de langage d'effectuer des actions spécifiques. Dans cet exemple, des outils sont définis pour rechercher un astronaute, ajouter des points à un astronaute, et obtenir le classement des planètes. Chaque outil est décrit avec un schéma de validation utilisant Zod pour garantir la robustesse des entrées.
-
Ressources (Resources) : Les ressources fournissent un accès structuré à des données statiques ou de référence. Dans cet exemple, une ressource est définie pour accéder aux règles du système de classement spatial.
-
Prompts : Les prompts sont des templates de conversation réutilisables qui peuvent être paramétrés dynamiquement. Un exemple de prompt est fourni pour générer un rapport hebdomadaire des performances.
-
Transport : Le serveur MCP peut utiliser différents types de transport pour communiquer avec les clients, tels que STDIO pour les applications desktop et SSE pour les applications web.
-
Test et Débogage : L'article utilise l'inspecteur MCP pour tester et déboguer le serveur. Cet outil permet d'explorer et de tester les outils, les ressources et les prompts de manière interactive.
-
Intégration avec Claude Desktop : Enfin, l'article montre comment intégrer le serveur MCP avec Claude Desktop, un client MCP populaire, pour permettre des interactions enrichies et contextualisées.
Cette implémentation illustre comment créer un serveur MCP fonctionnel et l'intégrer dans un environnement de développement pour enrichir les interactions avec les modèles de langage.
C'est triste
Un long article à charge - l'autrice explique pourquoi - contre l'utilisation des IA génératives : impacts socio-environnementaux, contexte politique et économique du déploiement de ces outils, alternatives éthiques et souveraines qui pourraient avoir plutôt un effet rebond, gains de temps illusoires, créativité figée, perte de compétence, etc.
C'est un très beau texte sur le ressenti de l'auteur vis-à-vis de l'intelligence artificielle, et de comment elle s'est immiscée dans nos vies
L'article explore la création d'agents autonomes basés sur l'intelligence artificielle pour automatiser des tâches quotidiennes, comme l'analyse des demandes de tirage et la génération de notes de version. Contrairement aux scripts d'automatisation traditionnels, ces agents utilisent des modèles de langage avancés pour interpréter et prendre des décisions contextuelles. L'article détaille les outils clés tels qu'AgentGPT, LangChain, et le Vercel AI SDK, et explique comment les intégrer de manière sécurisée dans des environnements de développement. Enfin, il propose un guide pratique pour mettre en place un agent capable de répondre à des déclencheurs spécifiques et de s'intégrer dans un pipeline CI/CD pour améliorer l'efficacité des développeurs.
Une liste d'outils d'IA sans inscription
L'article décrit un projet ambitieux visant à apprendre le langage de programmation Rust en développant un LoadBalancer, assisté par l'IA DeepSeek. L'auteur, expérimenté en développement logiciel, détaille les étapes de son apprentissage de Rust, le choix de l'IA DeepSeek pour son assistance, et la construction du LoadBalancer avec ses défis techniques. Malgré des performances initiales décevantes, l'optimisation et l'utilisation de la dernière version du framework "hyper" ont permis d'améliorer significativement le projet. L'expérience a confirmé l'utilité de l'IA dans l'apprentissage d'un nouveau langage, tout en soulignant ses limites et la nécessité de compléter ses réponses avec une documentation approfondie.
L'article explore l'automatisation de la génération de métadonnées SEO à l'aide de l'intelligence artificielle, un processus qui permet d'analyser rapidement le contenu et de créer des titres, descriptions et mots-clés optimisés pour le référencement. Le système, construit sur Symfony, intègre plusieurs composants clés, dont un bundle pour interagir avec des modèles de langage, un système d'événements pour déclencher la génération SEO, et un mécanisme de suivi des coûts pour gérer les dépenses liées aux appels d'API. La configuration du bundle LLM Chain permet de communiquer avec des modèles comme OpenAI, en définissant des paramètres tels que la plateforme, le modèle et un prompt système pour guider la génération de métadonnées. Le cœur du système est le générateur de SEO, qui transforme les réponses de l'IA en métadonnées structurées, tout en vérifiant les limites budgétaires et en enregistrant l'utilisation de l'API pour un suivi précis des coûts. En conclusion, l'article souligne les avantages du système, qui permet de gagner du temps tout en maintenant une qualité de SEO élevée, et offre des conseils pour implémenter un système similaire, en commençant par l'installation du bundle php-llm/llm-chain-bundle et la configuration de l'accès à l'API OpenAI.
L'auteur explore comment l'IA peut améliorer l'apprentissage en réduisant les difficultés inutiles et en facilitant l'accès à des explications et des pratiques. Cependant, il souligne que l'IA peut aussi diminuer l'effort nécessaire à l'apprentissage, ce qui peut être contre-productif. L'IA change également la valeur des compétences, certaines devenant obsolètes tandis que d'autres gagnent en importance. Il est crucial de vérifier les informations fournies par l'IA et de l'utiliser comme un tuteur plutôt que comme un enseignant principal. Il partage son utilisation personnelle de l'IA pour l'apprentissage, comme l'assistance à la lecture et la pratique des compétences cognitives. En fin de compte, malgré les avancées de l'IA, les principes fondamentaux de l'apprentissage restent inchangés.
L'article explique comment protéger ses sites web contre les scrappers agressifs en utilisant Anubis et HAProxy. Il décrit un nouveau modèle d'affaires douteux où des SDKs transforment les terminaux des utilisateurs en botnets pour scraper des données. L'auteur propose une solution technique utilisant HAProxy pour détecter un trafic anormal et rediriger vers Anubis, qui impose une preuve de travail. La configuration inclut des sticky tables pour suivre les requêtes et des cookies pour éviter les boucles infinies. Cette méthode offre une protection efficace tout en maintenant une bonne expérience utilisateur.
Cursor et Claude ne sont pas seulement efficaces pour prototyper mais aussi pour structurer, standardiser, refactorer et maintenir de grands projets. Cursor permet de construire des logiciels 5 à 30 fois plus rapidement grâce à son cycle d'édition et de test. L'auteur donne quelques conseils et bonnes pratiques.
L'article présente Anubis, une solution élégante pour contrer les bots qui parcourent le web et surchargent les sites en récupérant des données pour l'entraînement des IA. Anubis fonctionne comme un reverse proxy, utilisant JavaScript pour imposer une preuve de travail aux visiteurs, bloquant ainsi efficacement les bots qui ne gèrent pas JavaScript ou qui sont détectés comme tels. Cette méthode permet de protéger les sites web contre la surconsommation de ressources et est déjà adoptée par plusieurs grandes organisations. L'auteur a implémenté Anubis pour protéger son instance publique de SearXNG, réduisant ainsi la charge CPU et le trafic réseau causés par les bots
.
Après une soirée tardive, l'auteur a eu du mal à se lever et a manqué la première keynote du jour 2. Il a assisté à une présentation sur l'attaque xz utils et a lui-même donné un talk sur Kubernetes. Il a raté un talk sur TDD et IA, mais a assisté à une conférence sur les problématiques produit dans les grandes entreprises tech. Il a également participé à un quiz sur les conteneurs, manqué un talk sur Infisical, et assisté à un panel de staff engineers. Tout au long de la journée, il a eu des discussions enrichissantes avec diverses personnes, ce qui l'a empêché d'assister à tous les talks prévus.
Les conférences :
- L’IA n’existe pas : Luc Julia a critiqué l'idée de révolution de l'IA, soulignant son évolution continue et le rôle crucial des humains derrière les technologies.
- Github Copilot : Kim-Adeline Miguel et Sandra Parlant ont démontré les nouvelles fonctionnalités de Github Copilot, notamment le chat immersif et les revues de code automatisées.
- Ne perdez plus vos photos de vacances (ou tout autre fichier important) : J'ai présenté des stratégies pour sauvegarder et protéger les fichiers importants, recevant des retours positifs et des suggestions pertinentes.
- Comment nous avons transformé les Restos du Coeur en Cloud Provider : Julien Briault et Stéphane Trognon ont partagé la transformation des Restos du Coeur en fournisseur de cloud grâce à OpenStack et Kubernetes, réduisant les coûts et améliorant l'efficacité.
- Ça marche dans mon .devcontainer : Benoit Moussaud a présenté les avantages des environnements de développement en conteneurs, soulignant leur utilité pour l'onboarding et la gestion des versions.
- Burrito est un TACoS : une alternative open-source à Terraform Cloud : Luca et Lucas ont introduit Burrito, une alternative open-source à Terraform Cloud, qui améliore la gestion de l'infrastructure as code avec des fonctionnalités avancées.