L’idée principale de ce guide est de montrer comment les coding agents (agents capables d’exécuter du code) peuvent améliorer le processus de test manuel pour détecter des problèmes non couverts par les tests automatisés. L’auteur souligne que même si les tests unitaires ou TDD sont utiles, ils ne remplacent pas une vérification humaine, notamment pour des aspects comme l’ergonomie ou des comportements inattendus. Les agents peuvent ainsi exécuter directement du code (via python -c pour Python ou des commandes shell) ou interagir avec des APIs et interfaces web via des outils comme curl ou Playwright, révélant des bugs invisibles aux tests automatisés.
L’auteur détaille des mécanismes concrets pour automatiser ce testing manuel selon le type de projet. Pour les bibliothèques Python, l’exécution directe de code est efficace, tandis que pour les applications web, l’utilisation de requêtes HTTP (curl) ou d’outils de navigation automatisée comme Playwright permet d’explorer les fonctionnalités et de valider leur bon fonctionnement dans un environnement réaliste. Ces méthodes complètent les tests automatisés en identifiant des problèmes liés à l’expérience utilisateur ou à des cas limites non anticipés.
Enfin, l’auteur insiste sur l’importance d’intégrer ces pratiques dans un workflow de développement, en combinant tests automatisés et vérifications manuelles via les agents. Il recommande de corriger les bugs détectés en appliquant une approche red/green TDD pour garantir une couverture permanente, tout en utilisant des outils spécialisés comme agent-browser ou son propre projet Rodney pour simplifier l’automatisation des tests dans des navigateurs réels.