Bonjour!
J'ai un petit soucis afin d'optimiser mon code php, jvais partir du début:
Un client de ma boite souhaite me transférer une grosse partie de sa bdd mais pour des raisons un peu compliquées (et vu que c'est pas le but de raconter ma vie ici ) me les transfer via des pages html en json.
C'est à dire que quand j'appelle sa page ca ressemble à ceci:
url: http://www.xxx.com/data/50000/
Contenu:
Je n'ai accès qu'à ces pages html, qui sont trèèèèèèès nombreuses (de l'ordre des 5-6 millions).[{"creation":"","mode":"Classique","type":"pointer","Suivi":0,"log":[{"date":null,"time":"00:01:42 05/03/2013","type":null,"sent_to":"Admin","message":"Warning in E202 - pointer", ETC ETC ETC.
Via mon code, j'éxécute de cette façon:
Néanmoins, rien que cette partie prend environ 2-3 secondes à s’exécuter.
Code : Sélectionner tout - Visualiser dans une fenêtre à part
1
2
3 @$recept = file("http://www.xxx/data/COUNTRY_ID/$j/"); // Get the Json form $_JsonParsedFile = json_decode($recept[0]);
Et pour les 5.000.000 d'url que j'ai à fouiller j'ai calculé que ca me prendrait le mois
La question que j'ai: Existe t-il une fonction beaucoup plus rapide afin d'attraper ces données?
Le reste de mon code ne pose aucun soucis vu qu'il met moins de 0.1 seconde pour traiter une centaine de cas (testé et approuvé ).
Néanmoins, ce sont vraiment ces 2-3 secondes qui me plombent entièrement tout le script
Si quelqu'un a une idée de comment faire je le remercie d'avance
Partager