L’article explique comment utiliser Playwright combiné à un modèle de langage (LLM) pour créer un testeur de logique d’interface utilisateur adversarial qui va au-delà des tests déterministes classiques en générant des actions intentionnellement hostiles contre une UI vivante afin de déceler des bugs fonctionnels difficiles à trouver, comme des corruptions d’état ou des contournements de validation, en bouclant extraction d’état UI → plan d’actions hostile → exécution et détection d’anomalies, puis en réinjectant les résultats pour affiner la recherche; il détaille l’architecture du système, la construction d’un plan d’attaque JSON par le LLM, l’exécution avec Playwright et les avantages de cette approche versus des scripts statiques, ainsi que les limitations et coûts associés.
26506 shaares