Un utilisateur payant de Claude (220 €/mois) raconte avoir été banni sans avertissement après avoir utilisé plusieurs instances de Claude pour du project scaffolding.
Il faisait itérer une IA sur un fichier CLAUDE.md servant de contexte pour une autre IA. Cette automatisation, proche de prompts de type “system instructions”, aurait déclenché les mécanismes anti–prompt injection.
Conséquences :
- Compte désactivé sans explication
- Aucune réponse du support
- Seul retour : remboursement intégral
Conclusion :
La modération des LLM est une boîte noire : automatiser des prompts ressemblant à des instructions système est aujourd’hui un terrain miné, même pour des usages légitimes.
L'auteur explore dans cet article les défis liés à la modération des plateformes de contenu, en particulier les blogs, face à la concurrence des réseaux sociaux visuels comme YouTube, TikTok et Instagram. Il souligne que malgré la popularité croissante des vidéos, les blogs restent pertinents et largement lus, avec des avantages comme la facilité de mise à jour et la rapidité de création. Cependant, il met en lumière le problème de la découvrabilité, où les algorithmes de suggestion de contenu jouent un rôle crucial mais posent des questions complexes de modération et de responsabilité des plateformes. L'article aborde également les alternatives et les solutions potentielles pour améliorer la découvrabilité des blogs tout en gérant efficacement la modération.