L’article de Richard Dern propose une approche alternative au blocage systématique des bots d’IA, en suggérant plutôt de les éduquer en fixant des règles claires. L’auteur argue que l’interdiction pure et simple est techniquement fragile, éthiquement discutable et intellectuellement réductrice, car elle prive les utilisateurs d’un accès potentiel à des contenus de qualité. Il souligne que le vrai débat ne devrait pas porter sur l’accès, mais sur les conditions d’utilisation, permettant ainsi aux créateurs de contenu de mieux contrôler l’impact des bots.
Dern insiste sur la nécessité de remplacer une logique binaire (autoriser ou bloquer) par une gouvernance fine, différenciant les bots selon leur usage (recherche, entraînement, archivage, etc.). Cette approche, plus morale et pragmatique, évite de transformer le web en un espace clos et favorise une régulation transparente, où les bots doivent s’identifier, respecter des cadences et offrir des contreparties.
Enfin, l’auteur met en avant les outils existants, comme le standard robots.txt ou les catégories proposées par Cloudflare, pour encadrer ces pratiques. Plutôt que de rendre la lecture impossible, il plaide pour un cadre où les bots assument des obligations lisibles et vérifiables, assurant ainsi un équilibre entre ouverture du web et protection des créateurs.