Bonsoir,

Je fais des backup automatisé d'une application comportant une douzaine de tables et je backup ces tables ligne par ligne que j'enregistre dans des fichiers au format Excel .cvs. Certaines tables peuvent être volumineuse. C'est difficile de faire une estimation puisque il s'agit d'un "forum maison" et tout dépend comment on l'utilise, si les utilisateurs postent beaucoup ou pas, mais disons que certaines tables peuvent avoir jusqu'à 10,000 lignes, par exemple (pour fixer les ides). Je me pose la question de savoir si le script de backup aurait des performance raisonnable. Ca me parait énorme et je me demande si le script pourrait s'exécuter dans des délais raisonnable : temps de process inferieur à 2 seconde, par exemple.

J'ai testé sur de toute petites tables et évidement le résultat est très acceptable. Je pourrais faire un bechmark en ajoutant des lignes de test jusqu'à 10,000 ligne ou plus et tester mais je voudrai votre avis. Si ma méthode n'est pas recommandée par vous, peut-être il y aurait-il moyen de faire un backup plus rapide et plus performant (sans pour autant utiliser un appel system qui backuperais toute la base sql, et pas seulement mes tables de forums)

Une autre question : le forum en question possède des pièces jointes que je stockque dans un gros dossier. Lors du backup automatisé je copie tous ce dossier dans le répertoire de backup (nommé avec la date du jour, etc.). Là aussi, quelles seraient les perfs ? Si le dossier fait 100Mo... vous imaginez le temps que prendrait le script sur le serveur. J'ose pas imaginer. Il y a t-il une autre soluce ?