IdentifiantMot de passe
Loading...
Mot de passe oublié ?Je m'inscris ! (gratuit)
Navigation

Inscrivez-vous gratuitement
pour pouvoir participer, suivre les réponses en temps réel, voter pour les messages, poser vos propres questions et recevoir la newsletter

Applications et environnements graphiques Discussion :

Télécharger uniquement les fichiers HTML


Sujet :

Applications et environnements graphiques

  1. #1
    Membre du Club
    Inscrit en
    Août 2005
    Messages
    134
    Détails du profil
    Informations forums :
    Inscription : Août 2005
    Messages : 134
    Points : 53
    Points
    53
    Par défaut Télécharger uniquement les fichiers HTML
    Bonjour,

    Je dois remplacer une expression dans tous les fichiers HTML d'un site.
    Je n'ai donc pas besoin de rapatrier tous les fichiers, notemment les images (il y en a + de 6000).
    Comment faire avec wget ?

    Merci d'avance.

  2. #2
    Membre expérimenté
    Avatar de narmataru
    Profil pro
    Inscrit en
    Décembre 2002
    Messages
    1 548
    Détails du profil
    Informations personnelles :
    Âge : 44
    Localisation : France, Loire Atlantique (Pays de la Loire)

    Informations forums :
    Inscription : Décembre 2002
    Messages : 1 548
    Points : 1 680
    Points
    1 680
    Par défaut
    salut,
    man wget nous dit :

    Recursive Accept/Reject Options

    -A acclist --accept acclist
    -R rejlist --reject rejlist
    Specify comma-separated lists of file name suffixes or patterns to accept or reject (@pxref{Types of Files} for more details).

  3. #3
    Membre du Club
    Inscrit en
    Août 2005
    Messages
    134
    Détails du profil
    Informations forums :
    Inscription : Août 2005
    Messages : 134
    Points : 53
    Points
    53
    Par défaut
    Citation Envoyé par narmataru
    salut,
    man wget nous dit :
    Ok, merci. J'ai eu un peu de mal à mettre en oeuvre la syntaxe, mais j'ai fini par trouver.

    Autre question sur le même sujet : maintenant que je parviens à télécharger les fichiers html seuls, wget ne descend plus recursivement dans les repertoire; autrement dit, je n'obtiens que les fichiers html de la racine du site. Comment faire pour obtenir toute l'arborescence avec seulement les fichiers HTML ?

    ma commande :
    Code : Sélectionner tout - Visualiser dans une fenêtre à part
    1
    2
     
    wget http://www.monsite.com/ -r -l 0 -N -A html,htm
    Merci de votre intérêt.

  4. #4
    Membre expérimenté
    Avatar de narmataru
    Profil pro
    Inscrit en
    Décembre 2002
    Messages
    1 548
    Détails du profil
    Informations personnelles :
    Âge : 44
    Localisation : France, Loire Atlantique (Pays de la Loire)

    Informations forums :
    Inscription : Décembre 2002
    Messages : 1 548
    Points : 1 680
    Points
    1 680
    Par défaut
    bonjour,
    Si tu ne vois pas pourquoi ta commande ne téléchargement pas récursivement c'est qu'il y a un problème ! Sais-tu à quoi correspondent les options que tu passes à wget ?
    Par exemple :
    Citation Envoyé par man wget
    -l depth
    --level=depth
    Specify recursion maximum depth level depth. The default maximum depth is 5.
    Je t'encourage à lire le manuel de wget !

  5. #5
    Membre du Club
    Inscrit en
    Août 2005
    Messages
    134
    Détails du profil
    Informations forums :
    Inscription : Août 2005
    Messages : 134
    Points : 53
    Points
    53
    Par défaut
    Citation Envoyé par narmataru
    bonjour,
    Si tu ne vois pas pourquoi ta commande ne téléchargement pas récursivement c'est qu'il y a un problème ! Sais-tu à quoi correspondent les options que tu passes à wget ?
    Par exemple :

    Je t'encourage à lire le manuel de wget !
    J'ai commencé à la lire puis, je suis tombé sur une traduction en Français de la doc, qui indiquait "-l 0" égal à "-l inf" => descend récursivement dans tous les sous-rep.

    Et oui, mauvaise traduction de l'auteur. Je vais lui envoyer un mail en le remerciant pour son travail de traduction et en lui faisant remarquer amicalement qu'il y a cependant une erreur.

    J'ai essayé la commande suivante, mais cela ne fonctionne toujours pas :
    Code : Sélectionner tout - Visualiser dans une fenêtre à part
    1
    2
     
    wget http://www.monsite.com/ -r -l 50 -A html,htm
    Je ne comprends pas où ça foire...
    Merci à toi.

  6. #6
    Membre expérimenté
    Avatar de narmataru
    Profil pro
    Inscrit en
    Décembre 2002
    Messages
    1 548
    Détails du profil
    Informations personnelles :
    Âge : 44
    Localisation : France, Loire Atlantique (Pays de la Loire)

    Informations forums :
    Inscription : Décembre 2002
    Messages : 1 548
    Points : 1 680
    Points
    1 680
    Par défaut
    Citation Envoyé par anti-conformiste
    J'ai commencé à la lire puis, je suis tombé sur une traduction en Français de la doc, qui indiquait "-l 0" égal à "-l inf" => descend récursivement dans tous les sous-rep.

    Et oui, mauvaise traduction de l'auteur. Je vais lui envoyer un mail en le remerciant pour son travail de traduction et en lui faisant remarquer amicalement qu'il y a cependant une erreur.

    Merci à toi.
    ha ben peut être pas Si ça se trouve c'est moi qui me suis trompé. Ca parait bien dans la logique des commande de mettre 0 pour l'infini.
    Excsue-moi je me suis précipité

    Par contre, lorsque tu télécharge les pages html, wget va suivre les liens et non pas l'arborescence. Si tu as un accès ftp essaye plutot ça :


  7. #7
    Membre du Club
    Inscrit en
    Août 2005
    Messages
    134
    Détails du profil
    Informations forums :
    Inscription : Août 2005
    Messages : 134
    Points : 53
    Points
    53
    Par défaut
    Citation Envoyé par narmataru
    ha ben peut être pas Si ça se trouve c'est moi qui me suis trompé. Ca parait bien dans la logique des commande de mettre 0 pour l'infini.
    Excsue-moi je me suis précipité
    C'est pas grave, y'a pas de mal, c'est déjà très gentil de m'aider !!!
    Je n'ai pas d'accès ftp

    J'ai enlevé l'option -l car par défaut, le niveau récursif est à 5.
    Si je précise que je ne souhaite que les fichiers html (-A html,htm), il ne descend par récursivement. Sans l'option -A, il me télécharge bien tous le site avec les sou-rep (enfin, il commence, il y a 347Mo )

    Bref comment cela se fait-il

  8. #8
    Membre expérimenté
    Avatar de narmataru
    Profil pro
    Inscrit en
    Décembre 2002
    Messages
    1 548
    Détails du profil
    Informations personnelles :
    Âge : 44
    Localisation : France, Loire Atlantique (Pays de la Loire)

    Informations forums :
    Inscription : Décembre 2002
    Messages : 1 548
    Points : 1 680
    Points
    1 680
    Par défaut
    Essaye peut être en disant de tout télécharger sauf les images
    wget http://www.monsite.com/ -r -c -R *.gif,*.png,*.jpg,*.swf

  9. #9
    Membre du Club
    Inscrit en
    Août 2005
    Messages
    134
    Détails du profil
    Informations forums :
    Inscription : Août 2005
    Messages : 134
    Points : 53
    Points
    53
    Par défaut
    Citation Envoyé par narmataru
    Essaye peut être en disant de tout télécharger sauf les images

    C'est justement ce que je testais à part que j'ai oublié de lui préciser les png; le résultat est curieux : il me télécharge toute la racine et un sous répertoire avec un fichier png. Mais pourquoi pas les autres fichiers (html par exemple) et pourquoi uniquement ce sous-dossier

Discussions similaires

  1. Lister uniquement les fichiers d'un répertoire sous shell
    Par s-ehtp dans le forum Shell et commandes GNU
    Réponses: 14
    Dernier message: 03/10/2017, 10h29
  2. [Batch] Copier uniquement les fichiers nouveaux ou modifiés
    Par roland1 dans le forum Scripts/Batch
    Réponses: 3
    Dernier message: 27/12/2009, 13h11
  3. Charger dynamiquement les fichiers i18n
    Par fred2.0 dans le forum Struts 1
    Réponses: 3
    Dernier message: 23/10/2009, 14h56
  4. Réponses: 2
    Dernier message: 21/06/2007, 13h13
  5. Sauvegarder uniquement les fichiers modifiés.
    Par debuthmx dans le forum Linux
    Réponses: 1
    Dernier message: 16/04/2007, 23h06

Partager

Partager
  • Envoyer la discussion sur Viadeo
  • Envoyer la discussion sur Twitter
  • Envoyer la discussion sur Google
  • Envoyer la discussion sur Facebook
  • Envoyer la discussion sur Digg
  • Envoyer la discussion sur Delicious
  • Envoyer la discussion sur MySpace
  • Envoyer la discussion sur Yahoo