Bonjour,
Existe-t-il une théorie, farfelue et empirique ou basée sur des études tout-à-fait sérieuse, qui indique à quel moment il est "rentable" en terme de productivité d'effectuer une automatisation, de créer une fonction, ou pas ? Et par conséquent, s'il vaut mieux rester sur des actions "manuelles" quand celles-ci ne prennent pas trop de temps au lieu de lancer un projet qui ne sera pas rentable ?
Si oui, cette théorie porte-t-elle le nom d'un grand génie, ou cela reste, à la manière de monsieur Jourdain, quelque chose que tout le monde sait mais qui ne porte pas de nom ?
Exemple
Copier-coller un bout de code pour l'utiliser une seconde fois, OK.
Copier-coller ce bout de code des dizaines, voire des centaines de fois => Mieux ne vaut-il pas faire une fonction, une procédure, un objet réutilisable ?
Si oui, à partir de combien de fois c'est rentable ? Modulo le temps passé à paramétrer, gérer le spécifique, etc.
Autre exemple
Chaque fois que j'arrive sur un projet décisionnel, il a été acté qu'on fasse une historisation complète des dimensions.
Or, "ça dépend" du besoin de l'utilisateur.
Il en vient que, très souvent, l'utilisateur n'a pas besoin d'historiser les dimensions. Or, on s'entête quand même de gérer le projet de ce côté : c'est coûteux, fatigant, et donc source d'anomalies et de baisse de performance, alors qu'une simple mise à jour aurait suffi et serait plus performant.
En contrepartie, dès qu'un dev est fait, on demande de copier-coller et de passer une journée pour tout paramétrer, créer des objets, de la doc. alors qu'on pourrait passer deux jours pour préparer la factorisation/automatisation, puis chaque "développement/paramétrage" ne prendrait alors qu'une heure.
Mais les chefs de projets s'entête quand même à créer les choses individuellement, pour cibler plus rapidement la correction.
Mais dès qu'il y a une correction à faire, il faut la reporter sur les 80 objets qui ont été copié-collé... Résultat ça met deux jours.
Partager