En fait les surchages sont opérées sur un lien légitime et pas forcément par des robots, malheureusement.iubito wrote:Bon courage !
As-tu pensé au système de trap?
1) tu mets un lien invisible (aucun texte) <a href="/trap"></a>
2) tu prends soin de l'exclure dans le robots.txt
3) t'attends quelques jours que les vrais robots l'intègrent (google & co)
4) dans cette page trap, tu ajoutes l'IP au htaccess dans une section deny
ça marche bien sur mon site, je l'ai pas mis dans le htaccess (un peu trop bourrin) mais avant l'affichage de chaque page y'a une vérification dans une table... et un message pour les indésirables, avec exclusion pour 24h.
Y'a un Voilà et un robot allemand qui s'y prend régulièrement les pieds
celui qui revient trop régulièrement, je le met après en dur dans le htaccess pour la solution radicale.
Pour l'heure j'ai supprimé la fonction impliquée (ce qui doit donner des 404 à la pelle mais au moins ça tourne comme il faut).
phpBB a publié une mise à jour (3.0.7-pl1) avec certaines corrections d'une fonction que je n'utilisais pas (car buguée) et qui pourrait par conséquent remplacer celle, tierse, que j'avais mise en place et qui fait l'objet des surcharges en question.
Ce qui est étrange, c'est que cette solution tierse fonctionnait assez bien depuis quelques mois alors que, à présent, même une seule et unique requête met le système en carafe.
Je mettrai ça en place dans la soirée ; vous obtiendrez, comme le veut la tradition, le célèbre "clos pour maintenance".
Ce serait drôleBeaumont wrote:Lat, ne l'écoute pas hein...