Bonjour,
Je travaille pour une association humanitaire.
pour gérer un de leurs projets, la personne qui gére ce projet en local doit se connecter à leur site central qui se trouve aux USA pour récupérer des données, les traiter et les copier dans un fichier Excel.
cette manoeuvre lui prend énormément de temps.
la manoeuvre se passe comme suit:
1) un premier formulaire d'authentification
2) une fois authentifiée, une page où il y a plusieurs références de produits s'affiche
3) la personne cherche manuellement les nouveaux produits insérés dans la liste
4) lorsque elle clique sur la référence d'un nouveau produit , un formulaire contenant les informations sur ce produit s'affiche, par exemple:
nom produit: blabla
date d'expiration produit: 12/10/2007
prix de produit: 17,5 €
...etc.
5) elle copie/colle ces informations une par une dans un tableau Excel.
je cherche à automatiser celà à l'aide d'un script perl (robot web par exemple).
le script se connecte sur le site, s'identifie puis accéde à la page contenant
les références des produits, et pour chaque nouveau produit inséré dans la liste aspirer les données (ce sont des <input type="text" name="blabla" value="quelque chose"> et des <textarea name="blabla" > quelque chose </textarea> ).
et mettre tout ça dans un tableau Excel ou une base de donnée Access ou MySQL.
dans la fiche de quelques produits il y a une image (<img src="../images/imageProduit.jpg">), il faut aussi récupérer l'image aussi et la stocker dans un répertoire local ou dans la base de données.
Actuellement j'essai le module WWW::Mechanize mais je n'arrive pas encore à aspirer les données et l'image.
merci pour votre aide
Partager