L'article explore la possibilité d'utiliser l'IA pour codifier des bonnes pratiques de performance web, inspirées de l'outil YSlow des années 2000. L'auteur propose de former un modèle d'IA avec des données structurées issues de l'HTTPArchive, en comparant des pages lentes et rapides, pour distiller des règles de performance web adaptées à l'ère actuelle. L'objectif est de revivre l'esprit de YSlow avec une approche moderne et automatisée.
Ethan Gardner explore dans cet article l'utilisation de l'apprentissage automatique pour modéliser le trafic web. Il se demande comment les variations des données synthétiques (lab) impactent les métriques réelles (field), comme le Largest Contentful Paint (LCP). En suivant un cours sur le machine learning, il découvre XGBoost, un outil de gradient boosting efficace pour les prédictions. Il décrit ensuite son expérience où il utilise XGBoost pour prédire la valeur du LCP p75 à partir de données synthétiques, en détaillant les étapes de collecte, de nettoyage et de préparation des données, ainsi que la mise en œuvre du modèle.
Un article intéressant qui montre l'utilisation de python pour analyser des données et les représenter graphiquement
Tout est dans le titre