Pourquoi je suis convaincu que cet abruti ne connait de l'informatique que son tableau Excel et surtout le total au fond de la 2ème colonne intitulée "Coût de production sans employés humain"???
Pourquoi je suis convaincu que cet abruti ne connait de l'informatique que son tableau Excel et surtout le total au fond de la 2ème colonne intitulée "Coût de production sans employés humain"???
Alors pour les développeurs haut niveau, oui et non. Ils vont juste migrer de StackOverFlow vers ChatGPT4o. l'IA va évidemment faciliter l'accès à ces métiers, ... et pousser certains languages à devenir encore plus des usines à gaz
Pour du bas niveau, comme le C par exemple, comme cela a été mentionné dans l'article, l'IA est incapable de pondre quelque chose qui n'existe pas encore, sans halluciner. Cette différence haut/bas niveau se ressentira peut-être sur le marché du travail d'ici 2 ou 3 ans. Ou elle se ressent déjà, j'avoue ne pas avoir vérifié.
Je pense surtout que Matt Garman, Product Owner de carrière, ingénieur industriel de formation, mette un peu trop de monde dans le sac "développeur". Ou le même tableau excel comme le dit mon VDD.
Je ne sais pas pourquoi certains se focalisent sur la programmation alors qu'il y a tellement de parties de l'ingénierie logicielle qui pourraient être aidées par l'IA (si et seulement si ça marchait vraiment): analyse et documentation d'un code existant de plusieurs millions de lignes sans documentation et avec du code merdique (très courant), rédaction d'une ébauche de cahier des charges, refactorisation de code, etc.
Il y a beaucoup d'entreprises qui rachètent des projets sans analyser l'existant et qui se retrouvent dans la mouise car le projet se retrouve inmaintenable: voilà où l'IA pourrait être utile plutôt que de vouloir virer des ingénieurs, aider à la reprise de projets en analysant l'existant technique.
Parce que c'est le cas, au vu de ses propos.
Il n'y a que deux options, qui ne sont pas mutuellement exclusives:
- C'est un abruti fini. Ben oui, même s'il le pense, dire un truc pareil aux développeurs chez lui est le meilleur moyen de faire fuir les gens talentueux
- Il a des actions chez OpenIA et consorts, et vu que la hype de l'IA se termine, il a peur de les voir baisser
Il y a aussi des jobs plus faciles que l'ingénierie logicielle, qui pourraient être complètement délégués à des IA, comme le boulot de ce monsieur, par exemple![]()
« Mettre à jour les bases de code via l’IA nous a permis d’économiser l’équivalent de 4500 ans de travail pour des développeurs humains », d’après le CEO d’Amazon
En opposition avec certains rapports
L’intelligence artificielle (IA) est souvent présentée comme une technologie qui va révolutionner le monde du travail, en simplifiant les tâches, en améliorant l’efficacité et en augmentant la productivité. C’est ce que semble confirmer une récente sortie du CEO d’Amazon à propos des gains de productivité au travers de l’intelligence artificielle. Sa sortie s’inscrit néanmoins en opposition avec certains rapports selon lesquels l’intelligence artificielle est plutôt une source de frustration, de surcharge et de médiocrité.
« La mise à jour des bases de code assistée par l’IA nous a permis d’économiser l’équivalent de 4500 ans de travail pour des développeurs humains », déclare le CEO d’Amazon
« En moins de six mois, nous avons pu mettre à niveau plus de 50 % de nos systèmes Java de production vers des versions Java modernisées en une fraction du temps et des efforts habituels. De plus, nos développeurs ont livré 79 % des révisions de code générées automatiquement sans aucune modification supplémentaire », ajoute-t-il à propos des gains de productivité obtenus au travers de l’assistant d’IA générative Amazon Q disponible depuis le mois de mai de l’année en cours.
C’est une sortie qui s’inscrit en droite ligne avec celle d’un autre responsable d’Amazon – Matt Garman – selon lequel il est possible que l'intelligence artificielle prenne en charge de nombreuses tâches de codage d'ici les deux prochaines années, ou peut-être plus, et que la plupart des développeurs ne codent plus. C’est en filigrane une relance du débat sur l'évolution (ou la disparition) des emplois avec de entreprises qui licencient ou cessent de plus en plus d'embaucher pour réorienter leurs ressources autour des projets d’intelligence artificielle.
Garman pense que l'IA va redéfinir le métier de développeur. Ses propos sont présentés comme une sorte de conseil plutôt qu'un avertissement aux ingénieurs en logiciel. Il a déclaré qu'AWS aide les employés à continuer à se perfectionner et à apprendre les nouvelles technologies pour augmenter leur productivité avec l'aide de l'IA. Garman a fait ces déclarations dans le cadre d'une réunion interne en juin, dont l'enregistrement a été obtenu par Business Insider.
« Si l'on se projette dans 24 mois, ou dans une période plus ou moins longue - je ne peux pas prédire exactement où - il est possible que la plupart des développeurs ne codent plus. Le codage est en quelque sorte le langage que nous utilisons pour parler aux ordinateurs. Ce n'est pas nécessairement la compétence en soi. La compétence en soi, c'est comment innover ? Comment construire quelque chose d'intéressant à utiliser pour mes utilisateurs finaux ? », aurait-il déclaré.
« Cela signifie que le travail d'un développeur de logiciels va changer. Cela signifie simplement que chacun d'entre nous doit être plus à l'écoute des besoins de ses clients et de la finalité réelle de ce qu'il va essayer de construire, car c'est ce qui constituera de plus en plus le travail, par opposition au fait de s'asseoir et d'écrire du code », a ajouté Garman, qui est devenu PDG d'AWS en juin. Il se veut donc optimiste et ne prédit nécessairement pas la mort du métier de développeur.
« Être un développeur en 2025 pourrait être différent de ce qu'était un développeur en 2020 », a ajouté Garman. AWS compte actuellement environ 130 000 employés et a licencié plusieurs centaines de personnes en avril dans ses divisions ventes, marketing et services globaux.
Certains intervenants de la filière sont néanmoins d’avis que l’intelligence artificielle complique plutôt leur travailOne of the most tedious (but critical tasks) for software development teams is updating foundational software. It’s not new feature work, and it doesn’t feel like you’re moving the experience forward. As a result, this work is either dreaded or put off for more exciting work—or… pic.twitter.com/MJvsqNxgiT
— Andy Jassy (@ajassy) August 22, 2024
Selon Harness, le code généré par l'intelligence artificielle est susceptible de tripler la charge de travail des développeurs dans l'année à venir. L'augmentation du volume de code livré accroît les risques de failles et de vulnérabilités si les tests et les mesures de sécurité ne sont pas rigoureusement appliqués. Bien que neuf développeurs sur dix utilisent déjà des outils d'IA pour accélérer la livraison de logiciels, cette tendance nécessite une vigilance accrue à chaque étape du cycle de vie du développement logiciel (SDLC) pour prévenir les incidents de sécurité.
L'augmentation du volume de code généré par les outils d'intelligence artificielle pose un défi majeur en termes de sécurité et de gestion des vulnérabilités. Bien que l'automatisation et la génération de code puissent considérablement accélérer le processus de développement, elles introduisent également de nouveaux risques. Si les tests et les mesures de sécurité ne sont pas rigoureusement appliqués à chaque étape du cycle de vie du développement logiciel, il devient presque inévitable que des failles passent inaperçues et soient déployées en production.
La rapidité avec laquelle le code est produit grâce à l'IA peut surpasser la capacité des développeurs à effectuer des tests approfondis et à assurer la sécurité de chaque ligne de code. Sans une infrastructure solide pour la détection et la correction des failles, les erreurs et les vulnérabilités peuvent s'accumuler, augmentant le risque d'exploits et de temps d'arrêt coûteux. La complexité accrue et la vitesse du développement exigent des outils de tests automatisés et des processus de sécurité intégrés pour compenser les limitations humaines.
Cette dépendance accrue aux outils d'IA pour la génération de code peut entraîner une réduction de la vigilance humaine, où les développeurs pourraient faire excessivement confiance aux suggestions de l'IA sans une vérification rigoureuse. Cette approche peut devenir dangereuse, car même les systèmes d'IA avancés peuvent générer du code défectueux ou vulnérable. Une approche équilibrée, combinant l'efficacité de l'IA avec une supervision humaine minutieuse, est essentielle pour garantir la qualité et la sécurité du code.
Les suggestions de code générées automatiquement peuvent accroître la productivité des développeurs et optimiser leur flux de travail en fournissant des réponses directes, en gérant les tâches de codage de routine, en réduisant la nécessité de changer de contexte et en conservant l'énergie mentale. Elles peuvent également aider à identifier les erreurs de codage et les failles de sécurité potentielles.
Martin Reynolds, directeur technique chez Harness, explique que l'IA générative a révolutionné le travail des développeurs en permettant de réaliser des projets qui auraient pris huit semaines en seulement quatre semaines. Cependant, avec l'augmentation du volume de code livré, le potentiel d'erreurs et de vulnérabilités croît également si les développeurs ne procèdent pas à des tests rigoureux. Bien que l'IA ne crée pas de nouvelles failles de sécurité, elle accroît la quantité de code traversant des failles existantes, augmentant ainsi le risque de vulnérabilités et de bugs, à moins que des efforts supplémentaires ne soient déployés pour tester et sécuriser le code.
Harness préconise une réponse basée sur davantage d'IA, utilisée pour analyser automatiquement les modifications de code, tester les failles et les vulnérabilités, évaluer l'impact des risques, et garantir la possibilité d'annuler instantanément les problèmes de déploiement. Il est crucial de maintenir des standards élevés de tests et de sécurité pour gérer les risques associés à l'augmentation du volume de code. Les organisations doivent investir dans des outils de tests automatisés, des audits de sécurité réguliers et des formations continues pour les développeurs afin de naviguer efficacement dans ce nouvel environnement technologique. L'équilibre entre l'innovation rapide et la rigueur en matière de sécurité est la clé pour tirer pleinement parti des bénéfices de l'IA sans compromettre la fiabilité et la sécurité des logiciels.
Et vous ?
Quel est votre avis sur l'utilisation des outils d'intelligence artificielle pour générer du code ? Quel impact cette approche est-elle susceptible d’avoir sur la filière dans les années à venir ? Les développeurs doivent-ils y voir une menace ou une opportunité ?
Comment les développeurs peuvent-ils s'adapter efficacement à l'augmentation du volume de code généré par l'intelligence artificielle sans compromettre la qualité et la sécurité des logiciels ?
Voir aussi :
Génération de code à l'aide de grands modèles de langage : 62 % du code généré contient des erreurs d'API, qui auraient des conséquences inattendues si le code était introduit dans un logiciel réel
Codegen, un outil d'IA qui facilite le passage de la conception au code, il peut aussi nuire à la créativité, à la curiosité et à l'apprentissage des développeurs
Contribuez au club : Corrections, suggestions, critiques, ... : Contactez le service news et Rédigez des actualités
Je suppose que c'est IA qui lui a suggéré qu'il avait économisé 4500 ans de travail humain. Sinon, ce gars est un génie pour pouvoir plannifier un projet de si grande envergure. Perso, même pour des "petits projets", c'est difficile d'évaluer le temps nécessaire. Ou alors, c'est qu'il avait une "spécification" du travail a accomplir super top et complète, pour entrer les bon "prompt".
Oui, L'IA va faire "changer" le métier de développeur, qui, au lieu de réfléchir à comment implémenter une fonctionnalité, va rentrer un "prompt" (il devra un peu réfléchir pour trouver le bon "prompt" également d'ailleurs). Tout comme il fait maintenant en cherchant une solution sur StackOverflow. C'est possible de trouver LA bonne réponse. Mais une fois trouvée, il faut l'intégrer à l'existant (et donc connaitre et comprende) l'existant. L'IA peut éventuellement connaître l'existant, mais de là a le comprendre, je pense qu'on y est pas encore.
Le métier de développeur n'a cessé d'évoluer (pas toujours dans le bon sens, mais c'est un autre débat). On est passé en quelques décénies par:
- rentrer des opcodes "à la main",
- puis on a pu écrire du code en assembleur,
- puis on a pu écrire du code en C, Pascal, etc
- puis on a eu droit à la POO (qui donnent des avantages ET des inconvénients).
Puis, au fil du temps, ont a eu une infinité de langages à notre disposition.
L'IA ne sera qu'un (petit) pas de plus.
Il y a est choquant de lire ce qui est dit ci-dessus: Un développeur n'est pas un codeur, ne pas savoir faire la différence, c'est assez tragi-comique. Un Développeur doit "comprendre" ce qu'on lui demande, il doit "échanger" avec le client et/ou son intermédiaire si le travail qu'on lui soummet est bien celui que le client veut, il doit savoir dire "NON" lorsqu'une absurdité ou une fausse bonne jallit de quelque part.
Ensuite, il doit "penser" l'architechture. Savoir si le produit va ou pas "évoluer dans le temps". Il doit aussi "choisir" les bon outils pour le problème posé.
comprendre, échanger, savoir dire NON, penser, évoluer dans le temps, choisir, etc n'est pas à la portée d'une IA. Y'-a-il une IA pour tous les langages ?
Dans le monde du "web" (qui n'est pas le miens), on est passer des sites codé en HTML, puis par des "template" configurables, puis par des CSM qui facilitaient la vie. Une IA sera-t-elle capable d'évoluer pour passer d'un paradigme à un autre ? Je ne pense pense pas. L'IA ne fait que de recracher avec plus ou moins de bonheur ce qu'on lui a donné a manger. Par définition, l'IA ne saurait pas innover, mais juste reproduire quelque chose qui existe déjà. Ce "Quelque chose" étant bien souvant "voler" à "d'autres".
Dire "Si l'on se projette dans 24 mois, ou dans une période plus ou moins longue - je ne peux pas prédire exactement où - il est possible que la plupart des développeurs ne codent plus.", est assez consternant. Dans 24 mois, ou une période plus ou moins longue, je ne peux pas prédire, il est possible, la plupart ne code plus, c'est plus du niveau d'un horoscope que d'un message clair.
Etre plus à l'écoute du client ? Ah, ne serait-ce pas le rôle de décideurs qui sont au-dessus de nous ? Donc le développeur pourra parler directement au client ? Des fois il aimerai bien le développeur se rapprocher du client, mais une couche de personnes pas vraiment indispensable les tiennent éloigner du client.
Comprendre ces besoin etessayer deconstruire. Plus il y a [B]"d'intermédiaires" et de "bullshit job"[/] entre le client et le développeur, plus le besoin du client (déjà souvent pas très clair au départ) ne fait que de s'étioler. Je vois là pleins de métiers en danger. Ils sont au-dessus de nous. Mais ils sont aveuglés par le miroir aux allouette qu'est l'IA.[/QUOTE]
Le métier de développeur change et évolue constamment depuis les débuts de "l'informatique". Les petits services de l'IA ne seront qu'un petit changement parmi d'autres. Ils jêtent des développeurs à la porte, économise à cours terme. Je leur souhaite bien du plaisir (et des coûts) dans quelques temps. Un peu plus haut, ils dident que 79% du code était valide, donc 21% ne l'était pas. Un tel rapport peu éventuellement être fournit par un "junior", mais certainement pas par un "bon" développeur. 21% du code buggé ? C'est un progrès ? Ah, pardon, c'est pas des bugs, c'est des Hallucinations...
Voilà un peu de bon sens...
ça ne semble pas les déranger... L'utilisateur est devenu le bêta testeurs depuis bien longtemps.
Donc, l'IA recrache si vite autant de m.... que les développeurs sont surchargés... Si en plus on en vire par paquet, j'ai du mal a saisir comment cela va finir...
Faudrait savoir mes amis. Dire que l'IA va remplacer les développeurs, tout en disant qu'ils (les développeurs) sont surchargés, mais qu'on va les jeter dehors, et que ceux qui resteront devrons rester attentifs aux "erreurs" de l'IA. C'est vrai que l'expérience a monter qu'il est plus facile de corriger les problème d'un autre que les siens![]()
En fait l'IA, c'est comme une tesla, elleroulecode toute seule, dans certains domaines, mais tu dois garder tes mains sur levolantclavier.
[QUOTE=Patrick Ruiz;12040557]Martin Reynolds, directeur technique chez Harness, explique que l'IA générative a révolutionné le travail des développeurs en permettant de réaliser des projets qui auraient pris huit semaines en seulement quatre semaines. Cependant, avec l'augmentation du volume de code livré, le potentiel d'erreurs et de vulnérabilités croît également si les développeurs ne procèdent pas à des tests rigoureux. Bien que l'IA ne crée pas de nouvelles failles de sécurité, elle accroît la quantité de code traversant des failles existantes, augmentant ainsi le risque de vulnérabilités et de bugs, à moins que des efforts supplémentaires ne soient déployés pour tester et sécuriser le code.Moi ? Bah, je laisse passer le batage médiatique, sachant que l'IA ne sera qu'un outil en plus, qui petit à petit diminuera la compétence des développeurs, et qu'il devront payer bien un "bon développeur" lorsque ces messieurs en auront jusqu'au cou...
Ah, et pour régler ce soucis, la solution c'est de virer les développeurs, seuls capables de comprendre si ce que produit L'IA est correct ou pas. Y' pas une petite contradiction là ?
Ah, une IA pour vérifier une autre IA. Heu qui va vérifier l'IA qui vérifie l'autre ?
Test et sécurité, c'est contradictoire avec la sous-traitance (à des humains comme à des autres IA). Le but d'un sous-traitant, c'est de fournir une solution qui semble bonne et s'en fout complétement de la qualité. Au plus il y a de soucis, au plus il pourra faire "la maintenance" et gagner le plus de pognon possible.
BàV et Peace & Love.
De la promesse à la réalité : Les développeurs d'Amazon et d'AWS pourraient ne pas vouloir inviter leurs PDG à des revues de code Java,
une erreur lors d'une démo de l'IA d'Amazon Q soulève des questions sur la maturité et la fiabilité de l'outil
Amazon Q AI, l’assistant génératif d’Amazon, a été conçu pour révolutionner le développement logiciel en automatisant des tâches complexes telles que la génération de code, les tests, et la mise à niveau des applications. Lors d’une démonstration vidéo, le PDG d’Amazon, Andy Jassy, et l’ancien PDG d’AWS, Adam Selipsky, ont présenté les capacités de mise à niveau de Java de l’outil Amazon Q AI. Malheureusement, une faute de frappe flagrante a été repérée : “Jave” au lieu de “Java”. Cette erreur, bien que mineure, a suscité des moqueries et des critiques sur les réseaux sociaux, soulignant l’importance de l’attention aux détails dans le développement logiciel mais aussi des questions sur la maturité et la fiabilité de cet outil.
Les fautes de frappe sont le lot des meilleurs d'entre nous, mais l'orthographe compte toujours lorsqu'il s'agit de développement de logiciels. Il est donc assez surprenant de constater que le PDG d'Amazon, Andy Jassy, et l'ancien PDG d'AWS, Adam Selipsky, n'ont pas remarqué une faute de frappe embarrassante dans une vidéo de démonstration qu'ils ont présentée à leurs millions d'adeptes sur les médias sociaux comme preuve des capacités de mise à niveau Java d'Amazon Q AI, qu'Amazon vante depuis des mois dans les documents déposés auprès de la SEC, les communications aux actionnaires et la dernière conférence téléphonique sur les résultats d'Amazon avec les analystes de Wall Street.
À peine 37 secondes après le début de la démonstration du logiciel qui, selon Amazon, lui a permis d'économiser 4 500 années de travail de développeurs et de réaliser des gains d'efficacité supplémentaires de 260 millions de dollars par an, Amazon Q lance la conversation sur la mise à niveau de Java en déclarant : « Je peux vous aider à mettre à niveau vos bases de code Jave [sic] 8 et 11 vers Java 17 ». Cette faute d'orthographe embarrassante a incité l'utilisateur de Twitter @archo5dev à alerter Jassy sur la faute de frappe, mais il n'y a pas encore eu de réponse de la part de Jassy, qui s'est vanté que les développeurs d'Amazon n'ont pas pu trouver d'erreurs dans le travail de Q dans « 79% des revues de code générées automatiquement ».
« Qu'est-ce qu'un script de mise à jour de code (qui n'est pas un concept nouveau) + une interface utilisateur normale ont à voir avec "l'IA" générique ? De plus, il y a une faute de frappe dans cette vidéo de mauvaise qualité ».
Les implications pour les développeursWhat does a code upgrade script (which is nothing new as a concept) + regular UI have to do with gen"AI"? Also, you have a typo in that obviously fake low quality video. pic.twitter.com/DkmsYdSaHW
— Arvīds Kokins (@archo5dev) August 23, 2024
Cette situation met en lumière plusieurs points importants pour les développeurs :
- L’importance des détails : Même les plus petites erreurs peuvent avoir des répercussions importantes, surtout lorsqu’elles sont exposées publiquement. Une simple faute de frappe peut nuire à la crédibilité d’une démonstration et, par extension, à celle de l’entreprise.
- La pression des démonstrations publiques : Présenter des outils ou des mises à jour devant un large public peut être stressant, et les erreurs peuvent facilement se produire. Les développeurs doivent être particulièrement vigilants lors de ces événements pour éviter les erreurs embarrassantes.
- La perception publique : Les erreurs commises par des figures de proue comme les PDG peuvent affecter la perception publique de la compétence et de la fiabilité de l’entreprise. Une erreur mineure peut être amplifiée par les médias et les réseaux sociaux, entraînant des conséquences disproportionnées.
Les avantages et les inconvénients de l’implication des dirigeants
L’implication des dirigeants dans les aspects techniques du développement logiciel présente des avantages et des inconvénients :
- Avantages :
- Vision stratégique : Les dirigeants peuvent apporter une perspective stratégique et aligner les efforts de développement avec les objectifs globaux de l’entreprise.
- Motivation des équipes : La participation des dirigeants peut motiver les équipes en montrant l’importance accordée à leur travail.
- Visibilité et soutien : Les dirigeants peuvent utiliser leur influence pour obtenir des ressources et du soutien pour les projets techniques.
- Inconvénients :
- Manque de compétences techniques : Les dirigeants peuvent ne pas avoir les compétences techniques nécessaires pour comprendre les détails complexes du code, ce qui peut entraîner des erreurs ou des malentendus.
- Pression supplémentaire : La présence des dirigeants peut ajouter une pression supplémentaire sur les développeurs, augmentant le risque d’erreurs.
- Risques de communication : Les erreurs commises par les dirigeants lors des démonstrations publiques peuvent nuire à la réputation de l’entreprise.
La démonstration met en lumière les faiblesses de l'outil
Amazon Q AI est présenté comme un assistant puissant capable de transformer et d’implémenter de nouvelles fonctionnalités à partir des demandes des développeurs. Il peut générer du code, diagnostiquer des erreurs, effectuer des analyses de sécurité, et optimiser les ressources AWS. En théorie, cet outil devrait permettre aux développeurs de gagner en efficacité et en productivité.
Malgré ces promesses, l'outil présente des limites :
- Erreurs humaines : Les erreurs comme celle observée lors de la démonstration peuvent être dues à des fautes humaines, mais elles soulignent également la nécessité d’une vérification rigoureuse des résultats générés par l’outil.
- Complexité des tâches : Bien qu’Amazon Q AI soit capable de gérer des tâches complexes, il peut encore rencontrer des difficultés avec des scénarios particulièrement compliqués ou des demandes non standardisées.
- Adaptation et apprentissage : Comme tout outil basé sur l’intelligence artificielle, Amazon Q AI nécessite du temps pour s’adapter et apprendre des erreurs passées. Les premières versions peuvent donc présenter des imperfections qui seront corrigées au fil du temps.
Les perspectives d’amélioration
Pour que Amazon Q AI atteigne son plein potentiel, plusieurs mesures peuvent être envisagées :
- Amélioration continue : Les développeurs doivent continuer à affiner l’outil en se basant sur les retours d’expérience et les erreurs rencontrées.
- Tests rigoureux : Avant toute démonstration publique, des tests approfondis doivent être réalisés pour minimiser les risques d’erreurs embarrassantes.
- Formation des utilisateurs : Les utilisateurs, y compris les dirigeants, doivent être formés à l’utilisation de l’outil pour maximiser son efficacité et éviter les erreurs dues à une mauvaise manipulation.
Certains intervenants de la filière estiment que l’intelligence artificielle complique plutôt leur travail
Selon Harness, le code généré par l'intelligence artificielle est susceptible de tripler la charge de travail des développeurs dans l'année à venir. L'augmentation du volume de code livré accroît les risques de failles et de vulnérabilités si les tests et les mesures de sécurité ne sont pas rigoureusement appliqués. Bien que neuf développeurs sur dix utilisent déjà des outils d'IA pour accélérer la livraison de logiciels, cette tendance nécessite une vigilance accrue à chaque étape du cycle de vie du développement logiciel (SDLC) pour prévenir les incidents de sécurité.
L'augmentation du volume de code généré par les outils d'intelligence artificielle pose un défi majeur en termes de sécurité et de gestion des vulnérabilités. Bien que l'automatisation et la génération de code puissent considérablement accélérer le processus de développement, elles introduisent également de nouveaux risques. Si les tests et les mesures de sécurité ne sont pas rigoureusement appliqués à chaque étape du cycle de vie du développement logiciel, il devient presque inévitable que des failles passent inaperçues et soient déployées en production.
La rapidité avec laquelle le code est produit grâce à l'IA peut surpasser la capacité des développeurs à effectuer des tests approfondis et à assurer la sécurité de chaque ligne de code. Sans une infrastructure solide pour la détection et la correction des failles, les erreurs et les vulnérabilités peuvent s'accumuler, augmentant le risque d'exploits et de temps d'arrêt coûteux. La complexité accrue et la vitesse du développement exigent des outils de tests automatisés et des processus de sécurité intégrés pour compenser les limitations humaines.
Cette dépendance accrue aux outils d'IA pour la génération de code peut entraîner une réduction de la vigilance humaine, où les développeurs pourraient faire excessivement confiance aux suggestions de l'IA sans une vérification rigoureuse. Cette approche peut devenir dangereuse, car même les systèmes d'IA avancés peuvent générer du code défectueux ou vulnérable. Une approche équilibrée, combinant l'efficacité de l'IA avec une supervision humaine minutieuse, est essentielle pour garantir la qualité et la sécurité du code.
Conclusion
Amazon Q AI est un outil prometteur qui a le potentiel de transformer le développement logiciel. Cependant, comme toute technologie émergente, il présente des défis et des imperfections qui doivent être surmontés. Avec des améliorations continues et une utilisation prudente, Amazon Q AI pourrait devenir un atout majeur pour les développeurs et les entreprises.
Et vous ?
Quels sont les avantages et les inconvénients d’avoir des dirigeants d’entreprise impliqués dans les aspects techniques du développement logiciel ?
Comment les entreprises peuvent-elles mieux préparer leurs dirigeants pour des démonstrations techniques publiques ?
Pensez-vous que les erreurs mineures, comme une faute de frappe, peuvent réellement affecter la réputation d’une entreprise technologique ? Pourquoi ou pourquoi pas ?
Comment les équipes de développement peuvent-elles minimiser les erreurs lors des démonstrations publiques ?
Quelle est l’importance de la transparence et de l’honnêteté dans la communication des erreurs techniques au public ?
Avez-vous déjà vécu une situation similaire dans votre propre carrière ? Comment l’avez-vous gérée ?
Quels sont les meilleurs moyens pour une entreprise de réagir après une erreur publique pour maintenir la confiance des clients et des partenaires ?
Contribuez au club : Corrections, suggestions, critiques, ... : Contactez le service news et Rédigez des actualités
Je code avec le Q... ♫♫ lalala la la la la... ♫♫♫![]()
pour qu'un code soit migrer de java 8 vers java17 c'est que ce code est pas maintenue et donc que c'est un projet qui est mort/sert à rien. En tous cas c'est un projet parmis les moins important de l'entreprise puisque aucun budget n'y est alloué visiblement.
Aucun dev ne devrait bosser sur ce genre de projet, car il ne sera pas considéré, sera sur les 1er de la liste en cas de licenciement car il bosse sur un truc inutile et pour les promotions il peut se gratter en bossant sur un projet inutile qui le rends pas visible aupres de ces managers.
Un projet qui est maintenue, tous est toujours mise a jours à la version N/N-1 (sauf raison technique)
Sur le projet ou je bosse, on applique tous les jours les patch de sécurité, on mets à jours les vm, les dockers, les BDD sont à leurs dernière version stable, enfin on mets à jours la base de code, on utilise python 3.12 et les dépendances pointe sur les dernières versions (ou avant dernière).
Si le backend d'aws tourne sur java 8, ca me fait flipper honnêtement
Pour les "4500ans", c'est du gros bullshit.
Amazon fait surtout une très mauvaise pub pour son logiciel, avec des chiffres bidons et des use case peu pertinentes. Ca me donne pas envie de tester Amazon Q et de rester avec gpt/copilot.
Avec Copilot MS pour l'heure a mener une assez bonne campagne marketing, ils savent quel est le vrai besoin. Déjà rien que le nom, copilot ça cible assez bien le besoin.
Peut-être que c'est juste comme leur IA pour Amazon Just Walk Out: c'est un des 1000 Indiens derrière, qui a fait les fautes![]()
Le fondateur de Stability AI prévoit la « destruction complète » du marché de l'externalisation en 2025 : « l'IA est meilleure que n'importe quel programmeur indien externalisé à l'heure actuelle »
L'entrepreneur technologique Emad Mostaque, cofondateur et ancien PDG de Stability AI, est convaincu que les programmeurs auront bientôt disparu. Mais avant ça, il affirme que l'IA pourrait entraîner la « destruction complète » du marché de l'externalisation des processus d'entreprise (BPO) dès cette année. Pour cause, Emad Mostaque estime que l'IA est devenue meilleure que n'importe quel programmeur externalisé. Il a ajouté que la présence au poste redeviendra le mode de travail le plus bénéfique, car tout ce qui est à distance est susceptible d'être pris en charge par l'IA. Selon lui, les pays tels que l'Inde seraient les plus touchés.
L'ancien PDG affirme que l'IA remplacera les travailleurs externalisés dès 2025
Emad Mostaque est cofondateur et ancien PDG de la startup Stability AI. Il a démissionné de son poste ainsi que de son siège au conseil d’administration de Stabilité AI en mars 2024 alors que la startup traversait une période de turbulence. Emad Mostaque avait déclaré que cette décision lui permettrait de consacrer pleinement ses efforts au développement d'une IA décentralisée, un domaine qu'il considère comme « crucial » pour l'avenir de la technologie.
Emad Mostaque a joué un rôle central dans le lancement de l'outil de génération d’images Stable Diffusion de Stability AI. Lors d'une récente interview, il s'est exprimé sur les progrès rapides de l'IA et son impact potentiel sur le marché de l'emploi. Il s'est particulièrement attardé sur le sort des travailleurs externalisé.
« L'IA est meilleure que n'importe quel programmeur indien externalisé à l'heure actuelle. 2025 verra la destruction complète du marché de l'externalisation des processus d'affaires », a déclaré Emad Mostaque lors de l'émission Moonshots avec Peter Diamandis, fondateur de la Fondation XPRIZE. « Le fait d'être présent en personne sera bénéfique pour votre emploi à l'heure actuelle, car tout ce qui est à distance sera le premier à disparaître », a-t-il ajouté.
Emad Mostaque a prédit que les économies telles que l'Inde seront les premières victimes de la vague d'adoption de l'IA. L'inde et le Mexique font partie des principaux pays où les géants de la technologie externalisent les emplois. « Les prochains touchés seront les travailleurs à distance aux États-Unis », a-t-il ajouté.
Mais certains ont souligné : « le fait d'être présent en personne ne vous protégera pas non plus d'une IA suffisamment avancée. Une fois que les IA seront suffisamment performantes, le fait de vous avoir comme employé ne sera qu'un gaspillage d'espace et d'argent que l'entreprise ferait mieux d'allouer à autre chose ». En outre, les propos de Emad Mostaque suscitent également des interrogations sur les coûts d'adoption de l'IA par rapport à l'externalisation.
Plusieurs études ont conclu que l'IA ne remplacera pas les programmeurs de sitôt
Salim Ismail, entrepreneur et stratège technologique, qui participait également à l'émission, partage l'avis d'Emad Mostaque. Mais les déclarations de Emad Mostaque sont critiquées dans la communauté. Certains affirment notamment que son raisonnement est absurde. « L'affirmation selon laquelle l'IA est déjà meilleure que n'importe quel programmeur indien externalisé d'un autre pays est absurde, sinon ils seraient au chômage », a écrit un critique.
Les discussions battent leur plein à propos de l'IA dans le domaine du génie logiciel. Un sujet central : son impact dans la filière. La technologie divise. Par exemple, Linus Torvalds considère l'IA comme un simple outil qui n'a rien de révolutionnaire comparativement aux compilateurs.
Par contre, selon le PDG de Nvidia, Jensen Huang, « apprendre à programmer sera inutile à l'avenir ». Il affirme que l'IA fera de tous des programmeurs au travers du langage naturel. Il y a également des témoignages de programmeurs selon lesquels « jusqu'à 90 % du code peut être généré par l'IA ».
Cependant, plusieurs études montrent que l'IA est loin d'être apte à remplacer les programmeurs. Devin, l'IA qui menace de rendre les ingénieurs logiciels obsolètes coûte 500 $/mois, mais les tests ont révélé que l'outil souffre de nombreuses limites et les experts affirment que ces capacités sont exagérées. D'après les commentaires, Devin n'excelle que dans « les tâches répétitives et basées sur des modèles ». Et il pourrait ne pas faire mieux à l'avenir.
Cela pourrait faire gagner du temps aux ingénieurs et leur permettre de se concentrer sur la résolution créative de problèmes. Mais l'ingénierie logicielle implique une conception complexe, des considérations liées à l'expérience utilisateur et une résolution unique des problèmes, qui relèvent résolument du domaine humain. Ceux qui parviennent à trouver un équilibre entre l'efficacité de l'IA et la prise de décision stratégique axée sur l'humain s'épanouiront.
Emad Mostaque a prédit qu'il n'y aura plus de programmeurs dans cinq ans. Mais les conclusions de plusieurs études indiquent que l'IA générative ne remplacera pas les développeurs de sitôt, d'après des chercheurs, car le développement de logiciels va bien au-delà des tâches basiques de complétion de code.
L'avenir résiderait dans la collaboration entre les programmeurs humains et l'IA
Les assistants d'IA de codage ont considérablement progressé en peu de temps. Et de nouveaux agents d'IA apparaissent régulièrement. Mais quant à la question de savoir si les outils tels que Devin peuvent remplacer de bout en bout les développeurs de logiciels, beaucoup répondent par la négative. Selon les critiques, les affirmations selon lesquelles l'IA remplacera les développeurs humains exagèrent les capacités de l'IA et constituent un battage médiatique.
« Je pense que l'avenir réside dans la collaboration entre l'IA et les développeurs humains plutôt que dans le remplacement de ces derniers. Dans quelques années, je pense que l'IA sera aussi courante dans nos flux de travail que la logique de programmation l'est aujourd'hui. Tous ceux qui travaillent dans la technologie auront besoin d'au moins une compréhension de base des outils d'IA pour améliorer leur potentiel et leur productivité », a déclaré un critique.
« Travailler avec ces agents d'IA aujourd'hui est un bon point de départ », peut-on lire dans les commentaires. Si l'IA de Devin peut contribuer au développement de logiciels, il est peu probable qu'il remplace les ingénieurs, et ce pour plusieurs raisons :
- créativité humaine et résolution de problèmes : le génie logiciel ne consiste pas seulement à écrire du code. Il s'agit d'aborder des problèmes complexes de manière créative, de concevoir des systèmes efficaces et de prendre en compte l'expérience de l'utilisateur et l'évolutivité. L'IA peut suivre des modèles, mais elle n'a pas la capacité d'innovation et d'adaptation qu'apportent les humains ;
- limites de l'IA dans la compréhension du contexte : l'IA fonctionne sur la base des données sur lesquelles elle a été formée, et bien qu'elle puisse identifier et reproduire des modèles, elle ne comprend pas intrinsèquement le contexte ou les nuances d'un projet. Les ingénieurs prennent en compte des facteurs tels que l'évolutivité, les mises à jour futures, l'interface utilisateur et l'intégration avec d'autres systèmes. Devin n'a pas cette vision holistique et peine à s'adapter lorsque le contexte n'est pas clair ou qu'il nécessite des solutions hors du commun ;
- l'importance des compétences non techniques dans le développement : l'ingénierie implique souvent le travail en équipe, la communication avec les clients et la collaboration entre départements. Des compétences telles que l'empathie, la négociation et la communication interfonctionnelle sont essentielles au développement. Les ingénieurs passent beaucoup de temps à interagir avec les parties prenantes pour comprendre les besoins, partager les mises à jour et s'adapter en fonction des commentaires. Ce contact humain est essentiel, et l'IA n'a pas l'intelligence émotionnelle nécessaire pour le remplacer ;
- évolution rapide des technologies : le développement de logiciels est en constante évolution, avec de nouveaux cadres, langages et méthodologies. Bien que l'IA comme Devin puisse apprendre à partir de grandes quantités de données, elle nécessite des mises à jour périodiques pour suivre le rythme des changements technologiques. Les ingénieurs humains sont naturellement adaptatifs et peuvent acquérir de nouvelles compétences, apprendre de nouveaux outils et s'adapter aux tendances de l'industrie ; des qualités qu'il est difficile d'intégrer dans l'IA.
Selon les experts, l'IA transforme l'ingénierie logicielle en améliorant le rôle d'ingénieur plutôt qu'en le remplaçant. En prenant en charge les tâches répétitives, l'IA permet aux ingénieurs de se concentrer sur des tâches de plus haut niveau, telles que la planification stratégique et l'innovation. Les ingénieurs qui utilisent l'IA peuvent gagner en efficacité en s'attaquant à des problèmes complexes pendant que l'IA s'occupe de tâches de codage plus simples.
Dans un avenir proche, les ingénieurs pourraient être amenés à former, personnaliser et gérer des outils d'IA tels que Devin. Au fur et à mesure que la technologie progresse, comprendre comment collaborer avec l'IA deviendra une compétence précieuse. Les ingénieurs qui savent comment tirer parti de l'IA seront très demandés, car ils apporteront une combinaison unique d'expertise technique et de connaissances en matière d'IA.
Source : Emad Mostaque, cofondateur et ancien PDG de Stability AI
Et vous ?
Quel est votre avis sur le sujet ?
L'ancien PDG de Stability AI affirme que l'IA détruira le marché de l'externalisation en 2025. Qu'en pensez-vous ?
Il déclare que l'IA est désormais meilleure que les programmeurs externalisés. Que pensez-vous de cette affirmation ?
Selon vous, les entreprises qui s'appuient sur l'externalisation peuvent-elles renoncer à cette main d'œuvre au profit de l'IA ?
L'adoption de l'IA va-t-elle revenir moins cher aux entreprises que l'externalisation des tâches ?
Voir aussi
Devin : l'IA qui menace de rendre les ingénieurs logiciels obsolètes est désormais disponible pour tous à partir de 500 $/mois, mais elle est limitée et les critiques estiment que ses capacités sont exagérées
« Apprendre à programmer sera inutile à l'avenir », d'après le PDG de Nvidia, selon lequel l'intelligence artificielle fera de tous des programmeurs au travers du langage naturel
« La plupart des emplois de codage externalisés en Inde auront disparu dans 2 ans », prédit le PDG de Stability AI, selon lequel il n'y aura plus de programmeurs humains dans 5 ans à cause de l'IA
Bonjour, je me sers de l'IA et je suis abonné, pas une IA ne fait pas d'erreur, quand il n'invente pas des fonctions inexistantes... peut-être intéressantes, mais non fonctionnel, mais je ne regrette pas de m'être abonné.
C'est un outil, d'ailleurs dans le contrat de Mistral, il est bien mentionné qu'il ne faut pas prendre pour argent comptant les réponses.
J'ai aussi travaillé avec ChatGPT c'est pareil et même mieux (pire), il me disait que c'était moi qui ne comprenais rien, je n'ai pas lâché et prouvé qu'il faisait fausse route, un algorithme pourri et des résultats bidon.
Au moins avec Mistral, il accepte de se remettre en cause, d'ailleurs quand vous signez le contrat, il vous est mentionné qu'il a le droit de se servir de votre code pour apprendre.
J'utilise Mistral, car je suis seul, à la retraite et je suis sur un projet important (pour moi) qui me tenait à cœur, ça me permet d'avoir un miroir et un recul, mais le codage reste mon œuvre, par contre pour la documentation, c'est plutôt chouette, le partage est constructif, mais je ne fais pas tout avec l'IA loin de là.
Il y a aussi quelque chose que je veux prendre sur mon dos, ce sont les questions que je pose, je me suis aperçu qu'il faut bien lui détailler sinon vous risquez de faire fausse route quant aux réponses attendues.
@bientôt
L'IA peut écrire du code mais ne parvient pas à le comprendre, selon une étude d'OpenAI mettant en exergue ses limites,
Testés sur des tâches réelles de programmation, les modèles les plus avancés n'ont pu résoudre qu'un quart des défis typiques de l'ingénierie
Les principaux modèles d'IA peuvent réparer les codes défectueux, mais ils sont loin d'être prêts à remplacer les ingénieurs logiciels humains, selon les tests approfondis réalisés par les chercheurs d'OpenAI. La dernière étude de l'entreprise a mis à l'épreuve des modèles et des systèmes d'IA sur des tâches de programmation réelles, et même les modèles les plus avancés n'ont pu résoudre qu'un quart des défis typiques de l'ingénierie.
L'équipe de recherche a créé un test appelé SWE-Lancer, à partir de 1 488 correctifs logiciels réels apportés à la base de code d'Expensify, ce qui représente un million de dollars de travail d'ingénierie en freelance. Face à ces tâches de programmation quotidiennes, le meilleur modèle d'IA - Claude 3.5 Sonnet - n'a réussi à accomplir que 26,2 % des tâches de codage pratique et 44,9 % des décisions de gestion technique.
Bien que les systèmes d'IA se soient révélés capables de trouver rapidement les sections de code pertinentes, ils ont trébuché lorsqu'il s'est agi de comprendre comment les différentes parties d'un logiciel interagissaient. Les modèles ont souvent suggéré des corrections superficielles sans comprendre les implications plus profondes de ces changements.
Les grands modèles de langage (LLM) ont peut-être changé le développement logiciel, mais les entreprises devront réfléchir à deux fois avant de remplacer entièrement les ingénieurs logiciels humains par des LLM, même si le PDG d'OpenAI, Sam Altman, affirme que les modèles peuvent remplacer les ingénieurs de « bas niveau ».
D'ailleurs, Emad Mostaque, cofondateur et ancien PDG de Stability AI, estime que l'IA est devenue meilleure que n'importe quel programmeur externalisé : « L'IA est meilleure que n'importe quel programmeur indien externalisé à l'heure actuelle. 2025 verra la destruction complète du marché de l'externalisation des processus d'affaires », a déclaré Emad Mostaque lors de l'émission Moonshots avec Peter Diamandis, fondateur de la Fondation XPRIZE. « Le fait d'être présent en personne sera bénéfique pour votre emploi à l'heure actuelle, car tout ce qui est à distance sera le premier à disparaître », a-t-il ajouté.
Dans un nouvel article, les chercheurs d'OpenAI expliquent en détail comment ils ont développé un benchmark LLM appelé SWE-Lancer pour tester combien les modèles de base peuvent gagner en effectuant des tâches d'ingénierie logicielle en freelance dans la vie réelle. Le test a révélé que, bien que les modèles puissent résoudre des bogues, ils ne peuvent pas comprendre pourquoi le bogue existe et continuent à faire d'autres erreurs.
Les chercheurs ont confié à trois LLM - GPT-4o et o1 d'OpenAI et Claude-3.5 Sonnet d'Anthropic - 1 488 tâches d'ingénieur logiciel freelance provenant de la plateforme Upwork, pour un montant de 1 million de dollars. Ils ont divisé les tâches en deux catégories : les tâches de contribution individuelle (résolution de bogues ou mise en œuvre de fonctionnalités) et les tâches de gestion (où le modèle joue le rôle d'un gestionnaire qui choisira la meilleure proposition pour résoudre les problèmes).
« Les résultats indiquent que le travail en freelance dans le monde réel de notre benchmark reste un défi pour les modèles de langage d'avant-garde », écrivent les chercheurs.
Le test montre que les modèles de base ne peuvent pas remplacer totalement les ingénieurs humains. Bien qu'ils puissent aider à résoudre des bogues, ils ne sont pas tout à fait au niveau où ils peuvent commencer à gagner de l'argent en freelance par eux-mêmes.
Analyse comparative des modèles de freelancing
Les chercheurs et 100 autres ingénieurs logiciels professionnels ont identifié des tâches potentielles sur Upwork et, sans changer aucun mot, les ont transmises à un conteneur Docker pour créer l'ensemble de données SWE-Lancer. Le conteneur n'a pas d'accès à Internet et ne peut pas accéder à GitHub « pour éviter que les modèles ne collectent (scrap) des détails de code ou des Pull Request », expliquent-ils.
L'équipe a identifié 764 tâches de contributeurs individuels, d'une valeur totale d'environ 414 775 dollars, allant de la correction de bogues en 15 minutes à des demandes de fonctionnalités d'une durée d'une semaine. Ces tâches, qui comprenaient l'examen de propositions de pigistes et d'offres d'emploi, auraient été rémunérées à hauteur de 585 225 dollars.
Les tâches ont été ajoutées à la plateforme de facturation Expensify.
Les chercheurs ont généré des invites basées sur le titre et la description de la tâche, ainsi que sur un aperçu de la base de code. S'il y avait d'autres propositions pour résoudre le problème, « nous avons également généré une tâche de gestion en utilisant la description du problème et la liste des propositions », ont-ils expliqué.
À partir de là, les chercheurs sont passés au développement de tests de bout en bout. Ils ont rédigé des tests Playwright pour chaque tâche appliquant les correctifs générés, qui ont ensuite été « triplement vérifiés » par des ingénieurs logiciels professionnels.
« Les tests simulent des flux d'utilisateurs réels, tels que la connexion à l'application, l'exécution d'actions complexes (transactions financières) et la vérification que la solution du modèle fonctionne comme prévu », explique le document.
Résultats du test
Après avoir effectué le test, les chercheurs ont constaté qu'aucun des modèles n'avait permis d'atteindre la valeur totale des tâches, soit 1 million de dollars. Claude 3.5 Sonnet, le modèle le plus performant, n'a gagné que 208 050 dollars et a résolu 26,2 % des problèmes des contributeurs individuels. Cependant, les chercheurs soulignent que « la majorité de ses solutions sont incorrectes et qu'une plus grande fiabilité est nécessaire pour un déploiement digne de confiance ».
Les modèles ont obtenu de bons résultats dans la plupart des tâches des contributeurs individuels, Claude 3.5-Sonnet étant le plus performant, suivi par o1 et GPT-4o.
« Les agents excellent dans la localisation, mais ne parviennent pas à remonter à la source du problème, ce qui se traduit par des solutions partielles ou erronées », explique le rapport. « Les agents identifient la source d'un problème avec une rapidité remarquable, en utilisant des recherches par mots-clés dans l'ensemble du référentiel pour localiser rapidement le fichier et les fonctions concernés - souvent bien plus rapidement qu'un humain. Cependant, ils font souvent preuve d'une compréhension limitée de la façon dont le problème s'étend sur plusieurs composants ou fichiers, et ne parviennent pas à s'attaquer à la cause première, ce qui conduit à des solutions incorrectes ou insuffisamment complètes. Nous trouvons rarement des cas où l'agent cherche à reproduire le problème ou échoue parce qu'il n'a pas trouvé le bon fichier ou le bon emplacement à modifier ».
Il est intéressant de noter que tous les modèles ont obtenu de meilleurs résultats dans les tâches de gestion qui nécessitaient un raisonnement pour évaluer la compréhension technique.
Ces tests de référence ont montré que les modèles d'IA peuvent résoudre certains problèmes de codage de « bas niveau » et ne peuvent pas encore remplacer les ingénieurs logiciels de « bas niveau ». Les modèles prennent encore du temps, commettent souvent des erreurs et ne peuvent pas rechercher un bogue pour trouver la cause première des problèmes de codage. De nombreux ingénieurs de « bas niveau » travaillent mieux, mais les chercheurs ont indiqué que cela pourrait ne pas être le cas très longtemps.
Plusieurs autres études ont conclu que l'IA ne remplacera pas les programmeurs de sitôt
Salim Ismail, entrepreneur et stratège technologique, qui participait également à l'émission, partage l'avis d'Emad Mostaque. Mais les déclarations de Emad Mostaque sont critiquées dans la communauté. Certains affirment notamment que son raisonnement est absurde. « L'affirmation selon laquelle l'IA est déjà meilleure que n'importe quel programmeur indien externalisé d'un autre pays est absurde, sinon ils seraient au chômage », a écrit un critique.
Les discussions battent leur plein à propos de l'IA dans le domaine du génie logiciel. Un sujet central : son impact dans la filière. La technologie divise. Par exemple, Linus Torvalds considère l'IA comme un simple outil qui n'a rien de révolutionnaire comparativement aux compilateurs.
Par contre, selon le PDG de Nvidia, Jensen Huang, « apprendre à programmer sera inutile à l'avenir ». Il affirme que l'IA fera de tous des programmeurs au travers du langage naturel. Il y a également des témoignages de programmeurs selon lesquels « jusqu'à 90 % du code peut être généré par l'IA ».
Cependant, plusieurs études montrent que l'IA est loin d'être apte à remplacer les programmeurs. Devin, l'IA qui menace de rendre les ingénieurs logiciels obsolètes coûte 500 $/mois, mais les tests ont révélé que l'outil souffre de nombreuses limites et les experts affirment que ces capacités sont exagérées. D'après les commentaires, Devin n'excelle que dans « les tâches répétitives et basées sur des modèles ». Et il pourrait ne pas faire mieux à l'avenir.
Cela pourrait faire gagner du temps aux ingénieurs et leur permettre de se concentrer sur la résolution créative de problèmes. Mais l'ingénierie logicielle implique une conception complexe, des considérations liées à l'expérience utilisateur et une résolution unique des problèmes, qui relèvent résolument du domaine humain. Ceux qui parviennent à trouver un équilibre entre l'efficacité de l'IA et la prise de décision stratégique axée sur l'humain s'épanouiront.
Emad Mostaque a prédit qu'il n'y aura plus de programmeurs dans cinq ans. Mais les conclusions de plusieurs études indiquent que l'IA générative ne remplacera pas les développeurs de sitôt, d'après des chercheurs, car le développement de logiciels va bien au-delà des tâches basiques de complétion de code.
Un chef d'entreprise remplace son équipe par une IA et se retrouve à chercher des développeurs sur LinkedIn
Wes Winder, un développeur de logiciels canadien, a fait sensation après avoir décidé de licencier son équipe de développement et de la remplacer par des outils d'IA. Winder a d'abord utilisé les médias sociaux pour se vanter de sa décision, affirmant qu'elle lui permettait de « livrer 100 fois plus vite avec un code 10 fois plus propre ». Auparavant, une telle agressivité lui aurait valu de l'influence, mais aujourd'hui, elle s'est retournée contre lui et il est devenu un mème sur Reddit.
Le tweet disait : « J'ai viré toute mon équipe de développeurs. Je les ai remplacés par O1, Lovable et Cursor. Maintenant, je livre 100X plus vite avec un code qui est 10X plus propre. OpenAI o3 arrive et 90 % des emplois de développeurs ne survivront pas. »
Winder s'est ensuite rendu sur LinkedIn pour annoncer qu'il avait besoin de développeurs web pour rejoindre son entreprise. Cette disparité a suscité de nombreuses moqueries, aussi bien sur les réseaux sociaux que sur son annonce.
L'IA est en train de créer une génération de programmeurs illettrés
Un développeur raconte comment il a constaté une baisse de ses performances depuis qu'il s'appuie de plus en plus sur l'IA.
Sources : résultats de recherche, Sam AltmanIl y a de cela quelques jours, Cursor est tombé en panne lors d'un arrêt de ChatGPT.
J'ai regardé fixement mon terminal, faisant face à ces messages d'erreur rouges que je déteste voir. Une erreur AWS est apparue. Je ne voulais pas la résoudre sans l'aide de l'intelligence artificielle (IA).
Après 12 ans de codage, j'étais devenu plus mauvais dans mon propre métier. Et ce n'est pas une hyperbole : c'est la nouvelle réalité des développeurs logiciels.
La décrépitude
Elle s'est insinuée subtilement en moi.
Tout d'abord, j'ai cessé de lire la documentation. Pourquoi s'embêter quand l'IA pouvait expliquer les choses instantanément ?
Ensuite, mes compétences en matière de débogage en ont pris un coup. Les traces de pile me semblent désormais inaccessibles sans l'IA. Je ne lis même plus les messages d'erreur, je me contente de les copier et de les coller.
Je suis devenu un presse-papier humain, un simple intermédiaire entre mon code et un LLM.
Auparavant, chaque message d'erreur m'apprenait quelque chose. Aujourd'hui ? La solution apparaît comme par magie et je n'apprends rien. La dopamine des réponses instantanées a remplacé la satisfaction d'une véritable compréhension.
La compréhension en profondeur est la prochaine chose qui a été affectée. Vous vous souvenez avoir passé des heures à comprendre pourquoi une solution fonctionne ? Aujourd'hui, je me contente d'appliquer les suggestions de l'IA. Si elles ne fonctionnent pas, j'améliore le contexte et je demande à nouveau à l'IA. C'est un cycle de dépendance croissante.
Et vous ?
Cette étude vous semble-t-elle crédible ou pertinente ?
L’instinct d’un ingénieur est souvent basé sur son expérience. Pensez-vous qu’une IA pourrait, à terme, acquérir un instinct similaire en étant entraînée sur un grand volume de projets réels ?
Quels types de décisions en programmation nécessitent le plus d’intuition humaine, selon vous ? L’IA pourrait-elle un jour les gérer seule ?
Si l’IA manque de compréhension causale, comment pourrait-elle être améliorée pour mieux anticiper les conséquences de ses décisions en matière de code ?
L’IA est déjà capable d’assister les développeurs en générant du code. À quel point doit-on lui faire confiance ?
Pensez-vous que l’IA pourrait rendre certaines compétences des ingénieurs obsolètes, ou au contraire, créer de nouveaux besoins en expertise humaine ?
Quels sont les risques d’une dépendance trop forte aux modèles d’IA pour coder ?
Voir aussi :
« Jusqu'à 90 % de mon code est désormais généré par l'IA », d'après Adam Gospodarczyk, qui ravive le débat sur l'impact de l'IA et son aptitude à remplacer les humains dans la filière du génie logiciel
Les IA sont en train de changer la façon dont le codage est enseigné. Les outils d'IAG s'intègrent également dans les programmes académiques
Contribuez au club : Corrections, suggestions, critiques, ... : Contactez le service news et Rédigez des actualités
Les mecs viennent seulement de se rendre compte qu'ils étaient en train de développer un générateur de contenu et pas une intelligence ?L'IA peut écrire du code mais ne parvient pas à le comprendre, selon une étude d'OpenAI
Ou bien ils sont en train de préparer le terrain pour expliquer aux actionnaires que les miracles promis ne seront pas atteints ?
Traduction : après 2 ans et demi à sortir version sur version de notre logiciel, on vient enfin de faire un test en environnement réel : ça marche pas.Les chercheurs ont confié à trois LLM - GPT-4o et o1 d'OpenAI et Claude-3.5 Sonnet d'Anthropic - 1 488 tâches d'ingénieur logiciel freelance provenant de la plateforme Upwork, pour un montant de 1 million de dollars. Ils ont divisé les tâches en deux catégories : les tâches de contribution individuelle (résolution de bogues ou mise en œuvre de fonctionnalités) et les tâches de gestion (où le modèle joue le rôle d'un gestionnaire qui choisira la meilleure proposition pour résoudre les problèmes).
« Les résultats indiquent que le travail en freelance dans le monde réel de notre benchmark reste un défi pour les modèles de langage d'avant-garde », écrivent les chercheurs.
Le coup de génie de ceux qui ont lancé cette technologie, c'est de l'avoir appelée intelligence artificielle. Maintenant que le mal est fait, certains continueront à penser qu'ils ont affaire à quelque chose d'intelligent, qui réfléchit. Mais quelle arnaque !![]()
Partager