IdentifiantMot de passe
Loading...
Mot de passe oublié ?Je m'inscris ! (gratuit)
Navigation

Inscrivez-vous gratuitement
pour pouvoir participer, suivre les réponses en temps réel, voter pour les messages, poser vos propres questions et recevoir la newsletter

Débats sur le développement - Le Best Of Discussion :

Pensez-vous que le gaspillage de ressources des logiciels récents est trop important?


Sujet :

Débats sur le développement - Le Best Of

  1. #1
    Expert éminent
    Avatar de _skip
    Homme Profil pro
    Développeur d'applications
    Inscrit en
    Novembre 2005
    Messages
    2 898
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Âge : 41
    Localisation : Suisse

    Informations professionnelles :
    Activité : Développeur d'applications
    Secteur : High Tech - Produits et services télécom et Internet

    Informations forums :
    Inscription : Novembre 2005
    Messages : 2 898
    Points : 7 752
    Points
    7 752
    Par défaut Pensez-vous que le gaspillage de ressources des logiciels récents est trop important?
    Bonjour,

    J'aimerai avoir l'opinion d'autres professionnels de l'informatique sur le sujet que voici :

    Comme vous le savez sans doute, la puissance brute des processeurs n'a cessé d'augmenter ces dernières années, ce qui était le haut de gamme du grand public il y a 6 ans en est aujourd'hui relégué au stade d'antiquité. Les barrettes de 256mo de mémoire vive n'ont quasiment plus aucun sens tant le prix du giga de RAM est devenu ridicule, côté disque dur je suppose que ce n'est qu'une question de temps avant qu'on ne parle plus qu'en teraoctets...

    Bref vous l'aurez compris, pour moins d'un millier d'euros vous pouvez aujourd'hui avoir une bécane vraiment très puissante. Les évolutions ont été rapides et l'indice de performance, sans forcément obéir à la loi de Moore qui prévoit un doublement chaque 1-2 ans, a significativement augmenté.

    Pourtant on constate que les performances de certaines applications (je vais essayer d'éviter de trop en nommer afin de ne pas lancer de flamewars) sont restées les mêmes et continuent de stresser la machine comme si elles étaient devenues plus gourmandes. Beaucoup d'utilisateurs constatent (ou croient constater) qu'au final "ça ne va pas beaucoup plus vite qu'avant".

    Ceci peut être dû à plusieurs facteurs. Voici quelques faits et hypothèses (mélangées).

    - Les applications, notamment les OS sont devenus plus gros, font plus de choses qu'avant, proposent une expérience utilisateur plus riche (jusqu'au superflu parfois selon certains). Ceci peut plus ou moins justifier qu'elles soient plus gourmandes.

    - Certains composants, notamment les disques durs 7200t/min et les lecteurs de CD/DVD n'ont pas connu une évolution aussi marquante que le reste dans le secteur des performances, un accès disque est resté *lent* au fil des années. Ceci introduit des bottlenecks compréhensibles et parfois difficilement évitables.

    - L'optimisation des logiciels est passée au second plan face à la demande croissante de productivité. La forme est devenu plus importante peut être au détriment du fond. Ceci peut être à la fois un effet de l'état du marché actuel, ou alors purement et simplement un désintéressement de certains développeurs qui se disent "de toutes façons les machines sont tellement puissantes aujourd'hui" (argument entendu maintes fois IRL).

    Pour votre part, pensez-vous que nous assistons à une dégradation de la qualité des logiciels en général, ou au contraire pensez-vous que les reproches entendues sur la "lenteur perpétuelle" sont entièrement compensées par la prise en charge des nouvelles fonctionnalités exigées aujourd'hui par les utilisateurs?
    Plus généralement avez-vous l'impression que les machines augmentent de puissance, mais que le gaspillage de ressources soit si important qu'il empêche l'évolution d'être aussi perceptible qu'elle le devrait?

    A vous messieurs

  2. #2
    Membre expérimenté Avatar de davcha
    Profil pro
    Inscrit en
    Avril 2004
    Messages
    1 258
    Détails du profil
    Informations personnelles :
    Âge : 43
    Localisation : France

    Informations forums :
    Inscription : Avril 2004
    Messages : 1 258
    Points : 1 539
    Points
    1 539
    Par défaut
    Si la puissance brute avait tant d'importance par rapport au reste (l'ergonomie, notamment), on aurait jamais inventé les interfaces graphiques.

  3. #3
    Membre chevronné

    Homme Profil pro
    Développeur .NET
    Inscrit en
    Juillet 2009
    Messages
    966
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Âge : 37
    Localisation : France, Rhône (Rhône Alpes)

    Informations professionnelles :
    Activité : Développeur .NET

    Informations forums :
    Inscription : Juillet 2009
    Messages : 966
    Points : 2 078
    Points
    2 078
    Par défaut
    je ne pense pas qu'il y ai du gaspillage de ressources.
    en effet sa sert a rien d'avoir un quatri core 4.5 go avec 50 go de mémoire et 20 téra de disque dur si c'est pour faire tourné windows 95 et internet explorer.

    forcement on a de plus en plus de ressource donc on a tendance a en utilisé de plus en plus (surtout pour faire de belle interface graphique).

  4. #4
    Inactif  
    Avatar de Mac LAK
    Profil pro
    Inscrit en
    Octobre 2004
    Messages
    3 893
    Détails du profil
    Informations personnelles :
    Âge : 50
    Localisation : France, Haute Garonne (Midi Pyrénées)

    Informations forums :
    Inscription : Octobre 2004
    Messages : 3 893
    Points : 4 846
    Points
    4 846
    Par défaut
    Citation Envoyé par _skip Voir le message
    - Les applications, notamment les OS sont devenus plus gros, font plus de choses qu'avant, proposent une expérience utilisateur plus riche (jusqu'au superflu parfois selon certains). Ceci peut plus ou moins justifier qu'elles soient plus gourmandes.
    C'est exactement ça : on garde une vitesse de réaction "humaine", et derrière on pousse au niveau automatisations, journalisations, analyse du travail à la volée, rajout d'outils, etc.
    De plus, pour des raisons de vitesse de développement, on utilise de plus en plus de librairies "toutes prêtes", certaines étant un peu trop généralistes (et donc gourmandes) pour l'usage qui en est fait...
    Au final, on a des programmes guères plus rapides que la génération précédente, mais nettement plus conviviaux et/ou gavés d'assistants.

    Citation Envoyé par _skip Voir le message
    - Certains composants, notamment les disques durs 7200t/min et les lecteurs de CD/DVD n'ont pas connu une évolution aussi marquante que le reste dans le secteur des performances, un accès disque est resté *lent* au fil des années. Ceci introduit des bottlenecks compréhensibles et parfois difficilement évitables.
    C'est également une raison. Aucune application ne va plus vite que le plus lent des éléments qui lui permettent de tourner ("Loi du maillon faible")...

    Citation Envoyé par _skip Voir le message
    - L'optimisation des logiciels est passée au second plan face à la demande croissante de productivité. La forme est devenu plus importante peut être au détriment du fond. Ceci peut être à la fois un effet de l'état du marché actuel, ou alors purement et simplement un désintéressement de certains développeurs qui se disent "de toutes façons les machines sont tellement puissantes aujourd'hui" (argument entendu maintes fois IRL).
    C'est vrai également : les langages de haut niveau NON optimisés peuvent dégrader très sérieusement les performances... La plupart du temps, même optimisés, ils restent plus lents à l'exécution que l'équivalent bas niveau optimisé. Toutefois, leur avantage majeur est que le développement est plus rapide avec les langages de haut niveau.

    Dans un cas non-critique, cela ne pose pas de problèmes particuliers. Les jeux sont rarement écrits dans des langages de haut niveau, par exemple, tout comme les drivers et les programmes demandant de la puissance brutale (codecs par exemple, programmes de compression vidéo, etc.).


    Citation Envoyé par _skip Voir le message
    Pour votre part, pensez-vous que nous assistons à une dégradation de la qualité des logiciels en général, ou au contraire pensez-vous que les reproches entendues sur la "lenteur perpétuelle" sont entièrement compensées par la prise en charge des nouvelles fonctionnalités exigées aujourd'hui par les utilisateurs?
    Les logiciels se "dégradent", effectivement, mais sont AUSSI compensés par l'augmentation de puissance... Au final, rien ne va "plus vite", mais c'est mieux fait, plus pratique, plus joli, plus "tout"...

    Citation Envoyé par _skip Voir le message
    Plus généralement avez-vous l'impression que les machines augmentent de puissance, mais que le gaspillage de ressources soit si important qu'il empêche l'évolution d'être aussi perceptible qu'elle le devrait?
    Elle l'est pourtant : il faut et il suffit d'utiliser quelques "vieilles" applications pour en être totalement convaincu... Un jeu datant de quelques années, par exemple, se retrouve à tourner avec toutes les options au maximum. La précédente version d'un traitement de texte devient fulgurante de rapidité, etc.
    Je me suis récemment amusé à faire tourner un Word 6.0 (sur Windows 3.1) : même dans une machine virtuelle, les réactions étaient tout simplement instantanées !! On aurait des améliorations notables en faisant tourner un 95, NT4 ou même un W2k sur une machine "moderne"... Ce qui peut aussi donner de bonnes pistes d'optimisation si l'on cherche une machine basique pour faire du net, des mails et deux-trois pécadilles à côté.
    Mais en général, au bout de dix minutes d'utilisation, on commence à "voir" ce qu'il manque et à quoi on était habitués : les menus contextuels qui ne marchent plus, des options de correction automatique nettement moins bonnes, des fonctionnalités manquantes, etc. C'est ça, l'évolution "visible", sauf que l'on s'y habitue tellement vite qu'on ne la remarque plus, et même pire : on la trouve normale !!


    De toutes façons, cette dégradation est cyclique : quand l'augmentation de puissance du matériel est forte, les logiciels ont tendance à être nettement moins optimisés. Quand la vitesse de progression ralentit, voire stagne, les logiciels deviennent extrêmement optimisés au contraire.

    Voir comme exemples : les programmes réalisés sur les machines en fin de vie (époque machines 8 bits, machines 16 bits) qui tiraient parti du matériel dans des proportions insoupçonnables de prime abord.
    Également, on peut citer de façon plus récente les optimisations lourdes de pas mal de programmes (jeux principalement) lors de la fin du DOS, et avant l'arrivée massive des cartes 3D.
    De même, avant l'arrivée des machines multi-cœurs, les programmes étaient également en phase d'optimisation.
    Bref, il suffit d'attendre la prochaine phase stagnante d'amélioration du matériel, ou au contraire le prochain "boum" technologique : dans les deux cas, les logiciels iront sensiblement plus vite... Soit par optimisation, soit par explosion de la puissance disponible.


    Pour ma part, je vois comme hypothèses probables pour les prochaines (r)évolutions matérielles :
    • Le passage à 64 bits,
    • Démocratisation de la mémoire de masse statique (type Flash).
    • Augmentation des débits mémoire de façon significative (résolution du goulet d'étranglement dû au bus mémoire unique sur CPU multi-cœurs).

  5. #5
    Membre expérimenté
    Profil pro
    chercheur
    Inscrit en
    Avril 2004
    Messages
    830
    Détails du profil
    Informations personnelles :
    Localisation : France, Essonne (Île de France)

    Informations professionnelles :
    Activité : chercheur

    Informations forums :
    Inscription : Avril 2004
    Messages : 830
    Points : 1 455
    Points
    1 455
    Par défaut témoignage
    Témoignage personnel d' il y a quelques jours :
    Pour une expérience, j'utilise un 486/66 sous DOS avec Turbo Pascal et un écran cathodique (si !)
    J'ai activé les 2 interrupteurs en même temps et observé le moniteur pour voir si tout se passait bien. Quand j'ai vu un affichage, j'étais déjà sous TP, prêt à travailler (environ 15s)
    Le même jour une machine sous XP avec un Pentium 3GHz mettait 5 bonnes minutes à démarrer, à condition de refuser toutes les mises à jour.

  6. #6
    Membre chevronné

    Homme Profil pro
    Développeur .NET
    Inscrit en
    Juillet 2009
    Messages
    966
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Âge : 37
    Localisation : France, Rhône (Rhône Alpes)

    Informations professionnelles :
    Activité : Développeur .NET

    Informations forums :
    Inscription : Juillet 2009
    Messages : 966
    Points : 2 078
    Points
    2 078
    Par défaut
    Citation Envoyé par Nebulix Voir le message
    Témoignage personnel d' il y a quelques jours :
    Pour une expérience, j'utilise un 486/66 sous DOS avec Turbo Pascal et un écran cathodique (si !)
    J'ai activé les 2 interrupteurs en même temps et observé le moniteur pour voir si tout se passait bien. Quand j'ai vu un affichage, j'étais déjà sous TP, prêt à travailler (environ 15s)
    Le même jour une machine sous XP avec un Pentium 3GHz mettait 5 bonnes minutes à démarrer, à condition de refuser toutes les mises à jour.
    c'est parce que d'avais un écran cathodique!

    non sans blagué je c'est pas se que tu fait comme boulot avec ton vieu pc mais je pense pas que tu lance Word 2007...

  7. #7
    Membre expérimenté Avatar de davcha
    Profil pro
    Inscrit en
    Avril 2004
    Messages
    1 258
    Détails du profil
    Informations personnelles :
    Âge : 43
    Localisation : France

    Informations forums :
    Inscription : Avril 2004
    Messages : 1 258
    Points : 1 539
    Points
    1 539
    Par défaut
    Témoignage personnel d'il y a euh... plusieurs dizaines d'années.

    J'allume mon TRS-80. En une fraction de seconde, le système d'exploitation est lancé, et je suis paré à utiliser la bête... J'ai plus qu'à programmer le logiciel que je souhaite utiliser (ou charger le programe depuis une K7 audio).

    Aujourd'hui... J'allume mon quad-core et je vais boire un petit coup le temps que windows 7 se lance. De retour (juste le temps de faire 25m à pieds) je suis prêt à travailler. J'ai plus qu'à lancer visual studio, photoshop, première, firefox... Et puis le lecteur windows media, tant qu'à faire, un peu de musique me fera pas de mal.
    Dans le même temps, divers outils de communication instantanés sont lancés (msn, skype), du coup on peut me joindre facilement...
    Ah et puis, il y a 2 écrans.... Plus pratique qu'une vieille télé pour bosser quand même.


    Morale de cette histoire, si l'important pour vous est d'avoir un ordi qui démarre son OS super vite, achetez un TRS-80.

  8. #8
    Expert éminent
    Avatar de _skip
    Homme Profil pro
    Développeur d'applications
    Inscrit en
    Novembre 2005
    Messages
    2 898
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Âge : 41
    Localisation : Suisse

    Informations professionnelles :
    Activité : Développeur d'applications
    Secteur : High Tech - Produits et services télécom et Internet

    Informations forums :
    Inscription : Novembre 2005
    Messages : 2 898
    Points : 7 752
    Points
    7 752
    Par défaut
    Citation Envoyé par Mac LAK Voir le message
    Pour ma part, je vois comme hypothèses probables pour les prochaines (r)évolutions matérielles :[list][*]Le passage à 64 bits,
    Je tourne en 64 bits depuis un année environ, je me suis motivé pour profiter de mes 6go de ram (je faisais beaucoup de virtualisation). L'écrasante majorité des applications est encore en 32 donc je ne sais pas si ça fait une grosse différence. Ca en fait sans doute dans les applications qui ont beaucoup d'arithmétique double.

    Citation Envoyé par Mac LAK Voir le message
    [*]Démocratisation de la mémoire de masse statique (type Flash).
    J'ai eu l'occasion d'utiliser un PC sur lequel l'OS était installé sur un disque SSD high end de 64go, le gain de vitesse au démarrage des applications est un changement fortement perceptible auquel on s'habitue (très) vite.

    Citation Envoyé par Mac LAK Voir le message
    [*]Augmentation des débits mémoire de façon significative (résolution du goulet d'étranglement dû au bus mémoire unique sur CPU multi-cœurs).
    Je ne m'y connais pas assez, mais à part ça je suppose que tout le monde devra petit à petit se mettre au parallélisme malgré les réticences (Ouiinn c tro dur ).

    Citation Envoyé par davcha
    Témoignage personnel d'il y a euh... plusieurs dizaines d'années.

    J'allume mon TRS-80. En une fraction de seconde, le système d'exploitation est lancé, et je suis paré à utiliser la bête... J'ai plus qu'à programmer le logiciel que je souhaite utiliser (ou charger le programe depuis une K7 audio).
    Morale de cette histoire, si l'important pour vous est d'avoir un ordi qui démarre son OS super vite, achetez un TRS-80.
    Ce dont il est question ici n'est pas de renier l'évolution du confort, mais de parler de l'équilibre actuel entre fonctionnalités plus poussées et *lenteur relative* de l'engin.

    Si je prend un exemple, pour moi acrobat reader, dans ses versions actuelles, pèse sûrement pas loin d'une centaine de mégas. C'est resté outrageusement lent à se lancer et ça fait pas grand chose de plus qu'il y a 6 ans.

  9. #9
    Membre expérimenté
    Profil pro
    chercheur
    Inscrit en
    Avril 2004
    Messages
    830
    Détails du profil
    Informations personnelles :
    Localisation : France, Essonne (Île de France)

    Informations professionnelles :
    Activité : chercheur

    Informations forums :
    Inscription : Avril 2004
    Messages : 830
    Points : 1 455
    Points
    1 455
    Par défaut sans blague
    Citation Envoyé par yoyo88 Voir le message
    je c'est pas se que tu fait comme boulot avec ton vieu pc mais je pense pas que tu lance Word 2007...
    Je suppose que tu veux dire :
    je ne sais pas ce que tu fais comme boulot...
    Je pilote une expérience et j'enregistre des données. Ca marchait quand le PC était neuf, ça marche toujours très bien. Mieux qu'avec XP.

    Concernant Word, les performances me semblent limitées depuis toujours par la dextérité de l'utilisateur, à quelques frappes par seconde. Imagines tu un utilisateur tapant 50 fois plus vite qu'il y a 15 ans, à quelques centaines de frappes par seconde ?
    Pour revenir au sujet, dans les applications interagissant avec l'utilisateur, je comprends mal pourquoi la réaction de la machine est si lente.
    Pour les autres applications, les éditeurs s'y sont peu intéressés, donc, à logiciel constant, on peut profiter de l'augmentation des performances.

  10. #10
    Inactif  
    Avatar de Mac LAK
    Profil pro
    Inscrit en
    Octobre 2004
    Messages
    3 893
    Détails du profil
    Informations personnelles :
    Âge : 50
    Localisation : France, Haute Garonne (Midi Pyrénées)

    Informations forums :
    Inscription : Octobre 2004
    Messages : 3 893
    Points : 4 846
    Points
    4 846
    Par défaut
    Citation Envoyé par _skip Voir le message
    Je tourne en 64 bits depuis un année environ, je me suis motivé pour profiter de mes 6go de ram (je faisais beaucoup de virtualisation). L'écrasante majorité des applications est encore en 32 donc je ne sais pas si ça fait une grosse différence. Ca en fait sans doute dans les applications qui ont beaucoup d'arithmétique double.
    Bien sûr, les machines 64 bits existent depuis plusieurs années, mais elles ne sont pas encore démocratisées. Pour l'instant, c'est le règne des machines 32 bits.
    Donc, les applications dessus sont encore "confidentielles", touchent peu de gens et il n'y a donc pas encore d'effet visible sur le grand public.

    Citation Envoyé par _skip Voir le message
    Si je prend un exemple, pour moi acrobat reader, dans ses versions actuelles, pèse sûrement pas loin d'une centaine de mégas. C'est resté outrageusement lent à se lancer et ça fait pas grand chose de plus qu'il y a 6 ans.
    En fait, si, mais tu ne le vois pas. Les documents sont mieux gérés dans les configurations multilingues, les images aussi, on peut y intégrer des formulaires, mieux protéger les documents contre la copie, etc.
    Le seul souci, c'est que ces fonctions sont rarement utilisées par le lambda moyen qui se contente de charger une datasheet sur le net, ou d'imprimer en PDF pour envoyer au client par mail... En ce sens, Acrobat a sûrement fait évoluer son logiciel trop vite par rapport aux besoins des utilisateurs.
    Au minimum, Acrobat n'a pas su proposer une version "light" de Reader : certes, cela coûte cher de faire un double développement, surtout pour un produit gratuit, mais cela aurait pourtant permis d'avoir un Reader bien moins lourd pour l'utilisateur occidental lambda... Qui représente quand même une sacrée partie des utilisateurs de PC.

  11. #11
    Membre chevronné

    Homme Profil pro
    Développeur .NET
    Inscrit en
    Juillet 2009
    Messages
    966
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Âge : 37
    Localisation : France, Rhône (Rhône Alpes)

    Informations professionnelles :
    Activité : Développeur .NET

    Informations forums :
    Inscription : Juillet 2009
    Messages : 966
    Points : 2 078
    Points
    2 078
    Par défaut
    Citation Envoyé par Nebulix Voir le message
    Je suppose que tu veux dire :
    je ne sais pas ce que tu fais comme boulot...
    Je pilote une expérience et j'enregistre des données. Ca marchait quand le PC était neuf, ça marche toujours très bien. Mieux qu'avec XP.

    Concernant Word, les performances me semblent limitées depuis toujours par la dextérité de l'utilisateur, à quelques frappes par seconde. Imagines tu un utilisateur tapant 50 fois plus vite qu'il y a 15 ans, à quelques centaines de frappes par seconde ?
    Pour revenir au sujet, dans les applications interagissant avec l'utilisateur, je comprends mal pourquoi la réaction de la machine est si lente.
    Pour les autres applications, les éditeurs s'y sont peu intéressés, donc, à logiciel constant, on peut profiter de l'augmentation des performances.
    se que je veut dire c'est que tu fait pas le même boulot et que c'est pas destiner au même gens.
    XP est orienté grand public, faut donc que sa en "jette"!
    c'est comme comparer MSOffice a Open office sur le papier tu fait de la bureautique avec les 2 logiciel pourtant l'un et plus rapide et l'autre et plus beau et possède plus d'option ext...

  12. #12
    Membre éprouvé

    Profil pro
    Inscrit en
    Juillet 2006
    Messages
    1 448
    Détails du profil
    Informations personnelles :
    Localisation : Belgique

    Informations forums :
    Inscription : Juillet 2006
    Messages : 1 448
    Points : 1 234
    Points
    1 234
    Par défaut
    Je pense que beaucoups de programmeurs travaillent comme des porcs, qu'ils ne se soucient pas des performances quand lors de leurs microtests, ils obtiennent des réponses en moins de 5 secondes.
    Ils ne font pas plus gaffe aux fuites de mémoires, qui aujourd'hui, avec nos giga de marge, n'éclate pas au visage immédiatement.

    Aujourd'hui faire des programmes qui fonctionne dans la plupart des cas (utilisation du programme limitée dans le temps, pas de multi instance du programme, etc...) est l'enfance de l'art.
    Faire un programme qui fonctionne bien et tout le temps, reste le challenge qui sépare les bons des chanceux.

  13. #13
    Membre habitué Avatar de rakakabe
    Développeur informatique
    Inscrit en
    Août 2007
    Messages
    124
    Détails du profil
    Informations professionnelles :
    Activité : Développeur informatique

    Informations forums :
    Inscription : Août 2007
    Messages : 124
    Points : 174
    Points
    174
    Par défaut
    Citation Envoyé par Sergejack Voir le message
    Je pense que beaucoups de programmeurs travaillent comme des porcs, qu'ils ne se soucient pas des performances quand lors de leurs microtests, ils obtiennent des réponses en moins de 5 secondes.
    Ils ne font pas plus gaffe aux fuites de mémoires, qui aujourd'hui, avec nos giga de marge, n'éclate pas au visage immédiatement.

    Aujourd'hui faire des programmes qui fonctionne dans la plupart des cas (utilisation du programme limitée dans le temps, pas de multi instance du programme, etc...) est l'enfance de l'art.
    Faire un programme qui fonctionne bien et tout le temps, reste le challenge qui sépare les bons des chanceux.
    +1

  14. #14
    Rédacteur
    Avatar de eclesia
    Profil pro
    Inscrit en
    Décembre 2006
    Messages
    2 108
    Détails du profil
    Informations personnelles :
    Localisation : France

    Informations forums :
    Inscription : Décembre 2006
    Messages : 2 108
    Points : 3 203
    Points
    3 203
    Par défaut
    Citation Envoyé par Sergejack Voir le message
    Je pense que beaucoups de programmeurs travaillent comme des porcs, qu'ils ne se soucient pas des performances quand lors de leurs microtests, ils obtiennent des réponses en moins de 5 secondes.
    Ils ne font pas plus gaffe aux fuites de mémoires, qui aujourd'hui, avec nos giga de marge, n'éclate pas au visage immédiatement.

    Aujourd'hui faire des programmes qui fonctionne dans la plupart des cas (utilisation du programme limitée dans le temps, pas de multi instance du programme, etc...) est l'enfance de l'art.
    Faire un programme qui fonctionne bien et tout le temps, reste le challenge qui sépare les bons des chanceux.
    +1

    La programmation object n'est pas la pour aider non plus. ca incite beaucoup a l'usage d'object alors que des variables ou des tableaux et un algo tres legerement plus réfléchi obtiendrai des resultats equivalent pour des temps d'éxecution et une consommation memoire bien inférieur.

    La méconnaissance des API et les surcouches sont aussi en faute. de moins en moins de personnes utilisent le SQL ou les parseurs XML pour les grosses applications, il se tournent vers des librairies tierces comme hibernate ou jaxb et cumule les dependances etc... au point que la manipulation de flux (InputStream, OutputStream en Java) sont considéré comme compliqué par les jeunes developpeurs et ils preferent les solutions de facilités !

  15. #15
    Membre chevronné

    Homme Profil pro
    Développeur .NET
    Inscrit en
    Juillet 2009
    Messages
    966
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Âge : 37
    Localisation : France, Rhône (Rhône Alpes)

    Informations professionnelles :
    Activité : Développeur .NET

    Informations forums :
    Inscription : Juillet 2009
    Messages : 966
    Points : 2 078
    Points
    2 078
    Par défaut
    Citation Envoyé par eclesia Voir le message
    au point que la manipulation de flux (InputStream, OutputStream en Java) sont considéré comme compliqué par les jeunes developpeurs et ils preferent les solutions de facilités !
    +1

    Faute peut être aussi a l'enseignement.
    exemple : En licence on nous disais que l'objet était fabuleux qu'il fallait tout faire en objet.
    en bts c'était le contraire, l'objet était secondaire. on préférai un bon algo un a la création d'un nouvelle classe.

    résultat je suis plus satisfait du bts que de la licence.

  16. #16
    Inactif  
    Avatar de Mac LAK
    Profil pro
    Inscrit en
    Octobre 2004
    Messages
    3 893
    Détails du profil
    Informations personnelles :
    Âge : 50
    Localisation : France, Haute Garonne (Midi Pyrénées)

    Informations forums :
    Inscription : Octobre 2004
    Messages : 3 893
    Points : 4 846
    Points
    4 846
    Par défaut
    Citation Envoyé par yoyo88 Voir le message
    résultat je suis plus satisfait du bts que de la licence.
    Pour ma part, c'était encore plus folklorique que ça...
    • Mon prof de méthodologie ne jurait que par l'objet.
    • Le prof de programmation système que par l'optimisation.
    • Le prof d'archi parallèle que par la parallélisation des opérations.
    • Le prof d'Ada ne voyait que la fiabilité de l'algo.
    • Etc.
    Après coup, je suis plutôt content d'avoir croisé des "fanatiques" de chaque bord : s'ils sont incapables d'expliquer les points faibles de leurs pathologies respectives, ils sont par contre capables d'en expliquer les points forts.
    Au final, si tu retiens les points forts et que tu découvres les points faibles par toi-même (souvent, les sujets éludés par les profs en question), tu en retires la connaissance des meilleures solutions à appliquer dans chaque cas particulier... Et tu deviens un meilleur développeur.

    Après, chacun trouve ses petites préférences personnelles : pour ma part, ça a toujours été l'optimisation, la fiabilité et la parallélisation. Je me suis donc plutôt spécialisé dans ces domaines. Mais au moins, j'ai aussi vu les autres méthodes et j'ai appris à les utiliser à bon escient, et c'est le principal je trouve.

    Il faut voir aussi qu'une partie (et une partie seulement !!!) du problème de "gourmandise" des applications actuelles provient de développeurs monomaniaques, qui n'utilisent qu'une seule technologie pour le projet complet au lieu de fabriquer des modules "optimisés" et reliés entre eux, chaque module utilisant la meilleure technologie possible.
    Or, en faisant ça, on obtient soit un programme poussif, soit un programme "cher" (en temps de développement). Parfois les deux...

  17. #17
    Membre chevronné Avatar de chaplin
    Profil pro
    Inscrit en
    Août 2006
    Messages
    1 215
    Détails du profil
    Informations personnelles :
    Localisation : France

    Informations forums :
    Inscription : Août 2006
    Messages : 1 215
    Points : 1 819
    Points
    1 819
    Par défaut
    Je pense que le plus gros malaise aujourd'hui se sont les antivirus, non qu'ils fassent pas mal leur travail, mais ils consomment énormément de ressources.

  18. #18
    Expert éminent
    Avatar de _skip
    Homme Profil pro
    Développeur d'applications
    Inscrit en
    Novembre 2005
    Messages
    2 898
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Âge : 41
    Localisation : Suisse

    Informations professionnelles :
    Activité : Développeur d'applications
    Secteur : High Tech - Produits et services télécom et Internet

    Informations forums :
    Inscription : Novembre 2005
    Messages : 2 898
    Points : 7 752
    Points
    7 752
    Par défaut
    C'est un peu normal vu les accès disque que ça génère.

  19. #19
    Membre expérimenté Avatar de davcha
    Profil pro
    Inscrit en
    Avril 2004
    Messages
    1 258
    Détails du profil
    Informations personnelles :
    Âge : 43
    Localisation : France

    Informations forums :
    Inscription : Avril 2004
    Messages : 1 258
    Points : 1 539
    Points
    1 539
    Par défaut
    Faites comme moi : n'installez pas d'anti-virus et faites un peu attention à ce que vous faites sur internet...
    Et dans les cas où vous avez une méchante faille de sécurité rapidement exploitée par un gugus, cherchez le remède sur internet, qui est généralement publié bien avant que votre pc ne soit vérolé.

    Au final, vous faites la maintenance de votre PC vous-même, l'anti-virus c'est "vous". Et non pas un logiciel automatique qui va plomber vos performances à la recherche de logiciels espions/virus qui vous emmerdent notamment parce qu'ils plombent vos performances...

    Vous avez remarqué le paradoxe, j'espère.

  20. #20
    Membre actif
    Conseil - Consultant en systèmes d'information
    Inscrit en
    Février 2008
    Messages
    174
    Détails du profil
    Informations professionnelles :
    Activité : Conseil - Consultant en systèmes d'information

    Informations forums :
    Inscription : Février 2008
    Messages : 174
    Points : 220
    Points
    220
    Par défaut
    Citation Envoyé par Sergejack Voir le message
    Je pense que beaucoups de programmeurs travaillent comme des porcs, qu'ils ne se soucient pas des performances quand lors de leurs microtests, ils obtiennent des réponses en moins de 5 secondes.
    Ils ne font pas plus gaffe aux fuites de mémoires, qui aujourd'hui, avec nos giga de marge, n'éclate pas au visage immédiatement.

    Aujourd'hui faire des programmes qui fonctionne dans la plupart des cas (utilisation du programme limitée dans le temps, pas de multi instance du programme, etc...) est l'enfance de l'art.
    Faire un programme qui fonctionne bien et tout le temps, reste le challenge qui sépare les bons des chanceux.
    +5

    Quand je signale à un de mes collègues d'école d'ingénieur qu'il import beaucoup trop de librairies, qu'il ne s'en sert pas et que ça fait une charge en plus, il me replique:
    Et alors? Ça marche! et puis de toute façon, avec les PC puissants qu'on a ça sert à rien d'optimiser ...

    C'est dans des moments comme ça que j'ai envie de sortir la hache ...

Discussions similaires

  1. Réponses: 23
    Dernier message: 05/11/2019, 16h15
  2. [JAXB] Pensez vous que JAXB a un avenir dans le monde professionnel ?
    Par eclesia dans le forum Format d'échange (XML, JSON...)
    Réponses: 22
    Dernier message: 17/11/2010, 16h03
  3. Réponses: 2
    Dernier message: 22/03/2007, 22h04
  4. Réponses: 42
    Dernier message: 02/02/2007, 10h19
  5. Réponses: 1
    Dernier message: 20/05/2006, 13h10

Partager

Partager
  • Envoyer la discussion sur Viadeo
  • Envoyer la discussion sur Twitter
  • Envoyer la discussion sur Google
  • Envoyer la discussion sur Facebook
  • Envoyer la discussion sur Digg
  • Envoyer la discussion sur Delicious
  • Envoyer la discussion sur MySpace
  • Envoyer la discussion sur Yahoo