25335 shaares
L'article explique comment protéger ses sites web contre les scrappers agressifs en utilisant Anubis et HAProxy. Il décrit un nouveau modèle d'affaires douteux où des SDKs transforment les terminaux des utilisateurs en botnets pour scraper des données. L'auteur propose une solution technique utilisant HAProxy pour détecter un trafic anormal et rediriger vers Anubis, qui impose une preuve de travail. La configuration inclut des sticky tables pour suivre les requêtes et des cookies pour éviter les boucles infinies. Cette méthode offre une protection efficace tout en maintenant une bonne expérience utilisateur.