L'IA ne remplacera pas tous les emplois de sitôt. Des chercheurs notent que les modèles d'IA sont encore coûteux à exécuter
et produisent souvent des erreurs
Si des études prédisent une catastrophe au niveau de l'emploi, à l'instar de celle de Goldman Sachs qui estime que l'IA pourrait remplacer l'équivalent de 25 % de l'ensemble du marché de travail (soit 300 millions d'emplois), cet avis ne fait pas l'unanimité. Certains donnent des raisons pour lesquelles, selon eux, cela n'arrivera pas de sitôt.
Les systèmes d'intelligence artificielle générative pourraient entraîner des « perturbations importantes » sur le marché du travail et affecter environ 300 millions d'emplois à temps plein dans le monde, selon une étude de Goldman Sachs.
L'IA générative, un type d'intelligence artificielle capable de générer du texte ou d'autres contenus en réponse aux invites de l'utilisateur, a explosé en popularité ces derniers mois après le lancement public de ChatGPT d'OpenAI. Le chatbot est rapidement devenu viral auprès des utilisateurs et a semblé inciter plusieurs autres entreprises technologiques à lancer leurs propres systèmes d'IA.
Goldman Sachs n'est pas la seule entité à s'inquiéter de l'avenir de l'emploi. En effet, Elon Musk, le fondateur de Tesla et de Space X, s’est également inquiété des menaces sur le marché du travail en affirmant en juillet 2017 « Que faire au sujet du chômage de masse ? Ce sera un défi social massif. Il y aura de moins en moins d’emplois que les humains sauront mieux faire qu’un robot ».
D'ailleurs, dans une lettre ouverte, Elon Musk et un groupe d'experts en intelligence artificielle et de dirigeants de l'industrie ont demandé une pause de six mois dans le développement de systèmes plus puissants que le GPT-4 récemment lancé par OpenAI, en invoquant les risques potentiels pour la société et l'humanité. « Des systèmes d'IA puissants ne devraient être développés qu'une fois que nous sommes certains que leurs effets seront positifs et que leurs risques seront gérables », peut-on lire dans la lettre.
Eliezer Yudkowsky, théoricien de la décision et chercheur à la Machine Intelligence Research Institute, va plus loin en disant « qu'il ne suffit pas de suspendre le développement de l'IA. Nous devons tout arrêter ». « Ce moratoire de six mois serait préférable à l'absence de moratoire », a-t-il reconnu dans une tribune publiée dans Time Magazine. « Je me suis abstenu de signer parce que je pense que la lettre sous-estime la gravité de la situation et demande trop peu pour la résoudre ».
Comme vous, l'IA ne « travaillera » pas gratuitement
La formation d'un LLM puissant à partir de zéro peut présenter des opportunités uniques, mais elle n'est viable que pour les grandes organisations bien financées. La mise en œuvre d'un service qui exploite un modèle existant est beaucoup plus abordable (ChatGPT-3.5 Turbo d'Open AI, par exemple, tarife l'accès à l'API à environ 0,002 USD pour 750 mots anglais). Mais les coûts s'additionnent quand un service basé sur l'IA devient populaire. Dans les deux cas, le déploiement de l'IA pour une utilisation illimitée n'est pas pratique, obligeant les développeurs à faire des choix difficiles.
« En général, les startups qui construisent [un produit] avec l'IA doivent être très prudentes avec les dépendances sur des API de fournisseur spécifiques. Il est également possible de construire des architectures telles que vous n'allumez pas les GPU, mais cela demande une certaine expérience », déclare Hilary Mason, PDG et cofondatrice de Hidden Door, une startup qui construit une plateforme d'IA pour la narration et les jeux narratifs.
La plupart des services basés sur l'IA générative incluent un plafond ferme sur le volume de contenu qu'ils généreront par mois. Ces frais peuvent s'accumuler pour les entreprises et ralentir les personnes qui cherchent à automatiser les tâches. Même OpenAI, malgré ses ressources, limite les utilisateurs payants de ChatGPT, en fonction de la charge actuelle : au moment d'écrire ces lignes, le plafond est actuellement de 25 requêtes GPT-4 toutes les trois heures. C'est un gros problème pour quiconque cherche à s'appuyer sur ChatGPT pour le travail.
Les développeurs d'outils alimentés par l'IA sont également confrontés à un défi aussi vieux que les ordinateurs eux-mêmes : concevoir une bonne interface utilisateur. Un LLM puissant capable de nombreuses tâches devrait être un outil sans précédent, mais la capacité d'un outil à accomplir une tâche n'est pas pertinente si la personne qui l'utilise ne sait pas par où commencer. Matthew Kirk, responsable de l'IA chez Augment.co, souligne que bien que ChatGPT soit accessible, l'ouverture de l'interaction avec une IA via le chat peut s'avérer écrasante lorsque les utilisateurs doivent se concentrer sur une tâche spécifique.
« J'ai appris par expérience que laisser des outils complètement ouverts a tendance à dérouter les utilisateurs plus qu'à les aider », déclare Kirk. « Pensez-y comme un hall de portes qui est infini. La plupart des humains resteraient là perplexes quant à ce qu'il faut faire. Nous avons beaucoup de travail à faire pour déterminer les portes optimales à présenter aux utilisateurs.
Se former à l'IA pourrait devenir un métier en soi
Un problème particulier a déjà suscité la controverse et menace les efforts visant à créer des outils d'IA pour un travail sensible et important : les hallucinations. Les LLM ont une incroyable capacité à générer un texte unique, à faire des blagues et à tisser des récits sur des personnages imaginaires. Cependant, cet avantage est un obstacle lorsque la précision et l'exactitude sont essentielles à la mission, car les LLM présentent souvent des sources inexistantes ou des déclarations incorrectes comme des faits.
« Des fonctions spécifiques dans les entreprises de certains secteurs fortement réglementés (banque, assurance, santé) auront du mal à concilier la confidentialité très stricte des données et d'autres exigences réglementaires qui empêchent la discrimination », déclare Douglas Kim, membre du MIT Connection Science Institute. « Dans ces secteurs réglementés, vous ne pouvez pas laisser l'IA faire le genre d'erreurs passables lors de la rédaction d'un document scolaire ».
Les entreprises peuvent répondre à ce défi en courtisant les employés qui ont une expertise dans l'utilisation des outils d'IA.
Le battage médiatique actuel autour de l'IA a déjà donné naissance à de nouveaux rôles, y compris les ingénieurs de requêtes (prompt engineers). Le Prompt Engineer est un professionnel de l’écriture de prompt pour les IA génératives comme ChatGPT ou MidJourney.
L'ingénierie de requête est donc le processus de conception et de création de requêtes pour les modèles IA. Le but peut être de créer des données d’entraînement de haute qualité, ou tout simplement d’obtenir le résultat souhaité auprès d’une IA générative. Un ingénieur de requête est un expert spécialisé dans la communication avec les systèmes d’intelligence artificielle et plus particulièrement les chatbots IA basés sur les larges modèles de langage, comme ChatGPT et Google Bard. Contrairement aux ingénieurs informatiques traditionnels utilisant le code, ces ingénieurs écrivent en langage naturel. À l’origine, leur rôle est notamment de tester les IA pour développer et améliorer les modèles d’interaction humain-machine.
Ces ingénieurs aident à s’assurer que les chatbots sont rigoureusement testés, que leurs réponses soient reproductibles, et que les protocoles de sécurité sont respectés. Avec l’essor de ChatGPT et des autres IA génératives, ce métier connaît un véritable essor : ces professionnels luttent contre les biais, les dérapages et les erreurs commises par ces outils.
Anthropic, une société de sécurité et de recherche sur l'IA créée par d'anciens membres d'OpenAI, a récemment fait la une des journaux avec une offre d'emploi à la recherche d'un ingénieur responsable de la construction « d'une bibliothèque d'invites ou de chaînes d'invites de haute qualité pour accomplir diverses tâches », entre autres. Le salaire ? 175 000 $ à 335 000 $.
Cependant, Lucas A. Wilson, responsable de l'infrastructure de recherche mondiale chez Optiver, voit une friction entre l'expertise requise pour utiliser efficacement les outils d'IA et l'efficacité que l'IA promet d'offrir. « Comment l'embauche de personnes pour le tout nouveau travail consistant à nourrir les LLM libère-t-elle quelqu'un d'autre qui travaillait déjà pour se concentrer sur des tâches plus complexes ou abstraites ? » se demande Wilson. « Je ne vois pas facilement de réponse claire ».
Les modèles sont encore chers à faire fonctionner
Transformer un chatbot en une activité viable va être un défi : Google dispose depuis sept ans d'une interface de recherche de chat, Google Assistant, et la plus grande société de publicité au monde n'a pas encore été en mesure de la monétiser. Un rapport a souligné un autre problème financier lié à la génération d'une session de chat pour chaque recherche : cela coûtera beaucoup plus cher à exécuter par rapport à un moteur de recherche traditionnel.
Après avoir parlé au président d'Alphabet, John Hennessy (Alphabet est la société mère de Google) et à plusieurs analystes, Reuters écrit « qu'un échange avec l'IA connue comme un grand modèle de langage coûte probablement 10 fois plus qu'une recherche par mot-clef standard » et qu'il pourrait représenter « plusieurs milliards de dollars de surcoûts ».
Ce qui rend cette forme d'IA plus coûteuse que la recherche conventionnelle, c'est la puissance de calcul impliquée. Une telle IA dépend de milliards de dollars de puces, un coût qui doit être étalé sur leur durée de vie utile de plusieurs années, ont déclaré les analystes. L'électricité ajoute également des coûts et de la pression aux entreprises ayant des objectifs d'empreinte carbone. Le processus de traitement des requêtes de recherche alimentées par l'IA est connu sous le nom « d'inférence », dans lequel un « réseau de neurones » vaguement modélisé sur la biologie du cerveau humain déduit la réponse à une question d'une formation antérieure.
Hennessy a déclaré à Reuters : « Ce sont les coûts d'inférence que vous devez réduire », appelant cela « un problème de quelques années au pire ».
Le nombre exact de milliards sur les 60 milliards de dollars de revenu net annuel de Google qui seront aspirés par un chatbot fait l'objet d'un débat. Une estimation du rapport de Reuters provient de Morgan Stanley, qui table sur une augmentation annuelle des coûts de 6 milliards de dollars pour Google si une « IA de type ChatGPT devait traiter la moitié des requêtes qu'elle reçoit avec des réponses de 50 mots ».
Sources : Reuters
Et vous ?
Qu'en pensez-vous ? Partagez-vous le point de vue des entités comme Goldman Sachs qui pensent que le marché de l'emploi connaîtra un bouleversement sans précédent en termes de pertes d'emploi ?
Partagez-vous le point de vue des entités qui parlent d'une transformation de l'emploi ?
Que pensez-vous de l'initiative d'Elon Musk et autres pour limiter le développement de GPT en attendant qu'une étude sur l'impact sociétal soit menée ?
Que pensez-vous des entités qui estiment qu'à cause d'un certain nombre de paramètres (coûts, réponses parfois erronées, etc.), l'IA ne va pas créer le bouleversement cataclysmique prédit en termes de pertes d'emploi ?
Comment voyez-vous l'intelligence artificielle dans 5 à 10 ans ? Comme un outil ou comme un danger pour votre poste de développeur ?
Voir aussi :
L'IA va-t-elle éliminer des emplois, en particulier pour les développeurs ? Non, selon une enquête qui estime que l'intelligence artificielle pourrait créer plus d'emplois qu'elle n'en supprime
« L'IA ne va pas prendre votre emploi, ce sont plutôt les personnes capables de s'en servir pour être plus productives qui le feront », d'après Roberto Saracco, membre senior de l'IEEE
Partager