IdentifiantMot de passe
Loading...
Mot de passe oublié ?Je m'inscris ! (gratuit)
Navigation

Inscrivez-vous gratuitement
pour pouvoir participer, suivre les réponses en temps réel, voter pour les messages, poser vos propres questions et recevoir la newsletter

Apache Discussion :

.htaccess pour bloquer les robots


Sujet :

Apache

  1. #1
    Membre à l'essai
    Profil pro
    Inscrit en
    Juillet 2009
    Messages
    25
    Détails du profil
    Informations personnelles :
    Localisation : Suisse

    Informations forums :
    Inscription : Juillet 2009
    Messages : 25
    Points : 18
    Points
    18
    Par défaut .htaccess pour bloquer les robots
    Bonjour,

    J'espère que je poste dans le bon forum, ma question concerne les commandes de redirection Apache dans le fichier .htaccess.

    Un robot me bouffe une quantité incroyable de bande passante, mais impossible de le bloquer, il continue à apparaître dans mes logs. Voici le log de son passage :

    Code : Sélectionner tout - Visualiser dans une fenêtre à part
    62.48.70.200 - - [10/Nov/2009:07:18:42 +0100] "GET /de/ HTTP/1.1" 403 1243 "-" "Wepbot/3.0 (+http://www.nurago.com/index.php?id=210); Jakarta Commons-HttpClient/3.1"
    et voici le code que j'utilise, disposé dans le répertoire monsite.com/de/ :

    Code : Sélectionner tout - Visualiser dans une fenêtre à part
    1
    2
    3
    4
    5
    6
    7
    8
    9
    10
    11
    12
    13
    14
    15
    16
    Options +FollowSymLinks
    RewriteEngine on
    RewriteCond %{HTTP_USER_AGENT} ^Wepbot [NC]
    RewriteRule ^.*$ http://english-61925045732.spampoison.com [R=301,L]
    order allow,deny
    deny from 62.48.70
    deny from 62.48.71
    deny from 62.48.72
    deny from 62.48.73
    deny from 62.48.74
    deny from 62.48.75
    deny from 62.48.76
    deny from 62.48.77
    deny from 62.48.78
    deny from 62.48.79
    allow from all
    Donc d'abord j'ai tenté une détection d'user-agent (Wepbot/3.0)...qui marche avec l'extension "user-agent switcher" de firefox (je suis redirigé), mais il apparaissait toujours dans mes logs...alors j'ai essayé de bannir l'ip range mais pareil, il continue à revenir. Existe-t-il une solution plus simple et surtout plus efficace?

    merci pour toute piste....

    Raphaëlla

  2. #2
    Rédacteur
    Avatar de _Mac_
    Profil pro
    Inscrit en
    Août 2005
    Messages
    9 601
    Détails du profil
    Informations personnelles :
    Localisation : France

    Informations forums :
    Inscription : Août 2005
    Messages : 9 601
    Points : 12 977
    Points
    12 977
    Par défaut
    Ton code .htaccess fonctionne très bien : le 403 qui figure après "GET /de/ HTTP/1.1" indique qu'Apache a refusé de renvoyer du contenu au bot. C'est ce qu'il se passe quand on met un deny from : Apache répond 403 et logue une entrée dans access_log. Tu ne peux pas aller au-delà avec Apache. Le bot revient, tu n'y peux rien et Apache non plus. Si le bot tape sur des URL qui existent c'est parce qu'il les a obtenues par ailleurs : soit d'un scan précédent soit d'une autre base de données ou d'un autre bot ou moteur de recherche. Si tu ne veux plus du tout de traces dans Apache concernant ce bot, il faut intervenir au niveau du pare-feu.

Discussions similaires

  1. Réponses: 4
    Dernier message: 16/06/2014, 15h59
  2. IDS Snort pour bloquer les pings entrants
    Par molotector dans le forum Sécurité
    Réponses: 0
    Dernier message: 07/02/2013, 09h22
  3. Problème pour bloquer les pièces d'un Tétris
    Par jasinski13 dans le forum Général Java
    Réponses: 1
    Dernier message: 29/05/2011, 02h24
  4. Un .htaccess pour supprimer les sous-domaines
    Par zarohn dans le forum Apache
    Réponses: 8
    Dernier message: 10/05/2011, 04h23
  5. .htaccess pour gérer les erreurs 404 et alias
    Par antrax2013 dans le forum Apache
    Réponses: 4
    Dernier message: 04/12/2008, 18h11

Partager

Partager
  • Envoyer la discussion sur Viadeo
  • Envoyer la discussion sur Twitter
  • Envoyer la discussion sur Google
  • Envoyer la discussion sur Facebook
  • Envoyer la discussion sur Digg
  • Envoyer la discussion sur Delicious
  • Envoyer la discussion sur MySpace
  • Envoyer la discussion sur Yahoo