IdentifiantMot de passe
Loading...
Mot de passe oublié ?Je m'inscris ! (gratuit)
Navigation

Inscrivez-vous gratuitement
pour pouvoir participer, suivre les réponses en temps réel, voter pour les messages, poser vos propres questions et recevoir la newsletter

C Discussion :

Buffer Optimal pour gros fichiers


Sujet :

C

  1. #1
    Candidat au Club
    Profil pro
    Inscrit en
    Juin 2009
    Messages
    5
    Détails du profil
    Informations personnelles :
    Localisation : France

    Informations forums :
    Inscription : Juin 2009
    Messages : 5
    Points : 4
    Points
    4
    Par défaut Buffer Optimal pour gros fichiers
    Voila je vous explique mon souci,

    jai un programme qui cherche dans des fichiers des mots clefs et cela sur tout le disque dur (je precise je suis sur Linux, dont recursivite et autre).

    Le programme fonctionne tres bien mais lorsqu il attaque les fichiers "gros", j entends par la les fichiers superieurs a 2Go et bien il est super lent :S, mais il fonctionne par exemple pour du fichier de 1Go il me met 7min . Pour faire la recherche je fread en boucle le fichier et j analyse le buffer avec memcmp.

    Pour la gestion des fichiers superieurs a 2Go j utilise les fonctions fseeko, ftello.

    Je voudrais savoir si vous connaissiez une taille de buffer optimale pour que ca se fasse vite ou sinon serais-ce plus rapide si j y allais a coup tout simple de lseek ?

    Merci pour votre aide d avance

  2. #2
    Expert éminent sénior

    Profil pro
    Inscrit en
    Janvier 2007
    Messages
    10 610
    Détails du profil
    Informations personnelles :
    Âge : 66
    Localisation : France

    Informations forums :
    Inscription : Janvier 2007
    Messages : 10 610
    Points : 17 923
    Points
    17 923
    Billets dans le blog
    2
    Par défaut
    euh...

    Sur un système unixoide, pourquoi ne pas utiliser grep ??

  3. #3
    Candidat au Club
    Profil pro
    Inscrit en
    Juin 2009
    Messages
    5
    Détails du profil
    Informations personnelles :
    Localisation : France

    Informations forums :
    Inscription : Juin 2009
    Messages : 5
    Points : 4
    Points
    4
    Par défaut
    Car je recherche en bas niveau dans les fichiers

  4. #4
    Modérateur
    Avatar de Obsidian
    Homme Profil pro
    Développeur en systèmes embarqués
    Inscrit en
    Septembre 2007
    Messages
    7 395
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Âge : 48
    Localisation : France, Essonne (Île de France)

    Informations professionnelles :
    Activité : Développeur en systèmes embarqués
    Secteur : High Tech - Éditeur de logiciels

    Informations forums :
    Inscription : Septembre 2007
    Messages : 7 395
    Points : 23 760
    Points
    23 760
    Par défaut
    Citation Envoyé par Orkhidion Voir le message
    Car je recherche en bas niveau dans les fichiers
    GREP est capable de lire des fichiers binaires (si c'est ce que tu entends par « bas niveau »). La version GNU, en tout cas. Quelle taille de buffer utilises-tu ? Est-ce que tu prends en compte les cas où un motif se retrouve à cheval sur deux blocs consécutifs ?

    Sinon, d'une manière générale, tu peux utiliser mmap() pour mapper un fichier en mémoire. C'est ce qu'il y a de plus simple, et de plus rapide également car c'est le système qui gère les accès comme il l'entend.

  5. #5
    Candidat au Club
    Profil pro
    Inscrit en
    Juin 2009
    Messages
    5
    Détails du profil
    Informations personnelles :
    Localisation : France

    Informations forums :
    Inscription : Juin 2009
    Messages : 5
    Points : 4
    Points
    4
    Par défaut
    Ce que j'entends par bas niveau c'est pas exemple checker les headers des fichiers et autres.

    Pour mmap si par exemple notre fichier fait 12Go et que l'on a que 2Go en memoire ca fonctionne tout de meme ?

  6. #6
    Membre averti Avatar de Jenna
    Inscrit en
    Décembre 2009
    Messages
    272
    Détails du profil
    Informations personnelles :
    Âge : 39

    Informations forums :
    Inscription : Décembre 2009
    Messages : 272
    Points : 339
    Points
    339
    Par défaut
    Citation Envoyé par Orkhidion Voir le message
    Pour mmap si par exemple notre fichier fait 12Go et que l'on a que 2Go en memoire ca fonctionne tout de meme ?
    Oui et c'est même le gros avantage. Tu n'as pas a te soucier de la taille du fichier, c'est le système qui le gère pour toi

Discussions similaires

  1. Importer des données ne marche pas pour gros fichiers
    Par randriano dans le forum Sql Developer
    Réponses: 14
    Dernier message: 21/08/2012, 17h39
  2. buffer "par morceau" pour gros fichiers binaires
    Par Benoit_T dans le forum Langage
    Réponses: 11
    Dernier message: 09/11/2009, 10h58
  3. Réponses: 8
    Dernier message: 08/06/2007, 21h39
  4. plusieurs pages pour gros fichiers (processeur js)
    Par arnobidul dans le forum XML/XSL et SOAP
    Réponses: 1
    Dernier message: 25/07/2005, 09h22
  5. Un langage pour lire, traiter et écrire de gros fichiers
    Par March' dans le forum Langages de programmation
    Réponses: 19
    Dernier message: 07/04/2003, 15h26

Partager

Partager
  • Envoyer la discussion sur Viadeo
  • Envoyer la discussion sur Twitter
  • Envoyer la discussion sur Google
  • Envoyer la discussion sur Facebook
  • Envoyer la discussion sur Digg
  • Envoyer la discussion sur Delicious
  • Envoyer la discussion sur MySpace
  • Envoyer la discussion sur Yahoo