Salut j'ai besoin d'utiliser WWW::RobotRules dans un script mais je comprend pas comment il marche exactement j'ai testé plein de soluce et je n'arrive a rien , le mieux que je suis arrivé a faire c'est
Et la catastrophe je sais pas comment récupérer la sortie du programme tout ce que j'ai tenté me sort Hash:?????????
Code : Sélectionner tout - Visualiser dans une fenêtre à part
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23 #!/usr/bin/perl -w use strict; my @site = ("http://clubic.com/robots.txt"); @site = robots(@site) sub robots { use WWW::RobotRules; my $rules = WWW::RobotRules->new('Mozilla/5.0 (compatible)'); use LWP::Simple qw(get); { foreach $resultat( @_ ) { my $robots_txt = get $resultat; $rules->parse($resultat, $robots_txt) if defined $robots_txt; } }
De plus j'ai encore un prb avec ce module il ne sort que les lien Allow hors certain fichiers robots.txt ne comporte que des Disallow
De même auriez vous une solution pour retaper les url parce queUser-agent: *
Disallow: /s/infoprix.php
Disallow: /s/infoprix_2.php
Disallow: /shopper/infoprix_2.php
/s/infoprix.php c'est moins exploitable que htp://clubic.com/s/infoprix.php ou un exemple de sctipt complet avec robotrules parce que je sèche lamentablement.
Partager