L'article décrit comment Anubis, un programme conçu pour protéger les sites web contre les scrapers AI, a sauvé les sites web de l'auteur d'une attaque DDoS. L'attaque a saturé le serveur, rendant le site web inaccessible. Anubis a filtré les connexions entrantes, présentant un défi de preuve de travail que les navigateurs légitimes pouvaient résoudre, mais pas les bots malveillants, réduisant ainsi la charge du serveur et restaurant l'accès au site.
Pour contrer les attaques DDoS des entreprises de l'IA, l'auteur a commencé par bannir des IP en fonction du User Agent... mais ça comporte des risques de faux positifs assez importants. Quelqu'un lui a parlé de Anubis, un projet open source qui permet d'ajouter une vérification de type "Proof of Work" afin de garantir que le visiteur n'est pas un robot. L'auteur montre comment l'installer.
L'auteur fait un retour d'expérience sur le scraping totalement abusif de son contenu par des entreprises spécialisées dans l'IA : au delà de la monétisation probable de son contenu dans son dos, ces entreprises rendent indisponibles sa forge logicielle par ce que l'on peut qualifier d'attaque DDoS... d'où son coup de gueule. Il donne quelques conseils pour pallier ce souci.
Tout est dans le titre
Tout est dans le titre...
Tout est dans le titre
Tout est dans le titre
Tout est dans le titre
Encore des machines "anonymes" hébergées chez Amazon qui, par leurs requêtes, surchargent l'activité de mon serveur Apache !
Tout est dans le titre