IdentifiantMot de passe
Loading...
Mot de passe oublié ?Je m'inscris ! (gratuit)
Navigation

Inscrivez-vous gratuitement
pour pouvoir participer, suivre les réponses en temps réel, voter pour les messages, poser vos propres questions et recevoir la newsletter

Intelligence artificielle Discussion :

Sam Altman est accusé d'avoir manqué de transparence au sujet des efforts d'OpenAI en matière de sécurité


Sujet :

Intelligence artificielle

  1. #1
    Chroniqueur Actualités

    Homme Profil pro
    Dirigeant
    Inscrit en
    Juin 2016
    Messages
    3 160
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : Bénin

    Informations professionnelles :
    Activité : Dirigeant
    Secteur : Aéronautique - Marine - Espace - Armement

    Informations forums :
    Inscription : Juin 2016
    Messages : 3 160
    Points : 66 307
    Points
    66 307
    Par défaut Sam Altman est accusé d'avoir manqué de transparence au sujet des efforts d'OpenAI en matière de sécurité
    Le PDG d'OpenAI affirme que sa technologie est susceptible de "détruire le capitalisme"
    mais la startup d'IA est critiquée pour son partenariat avec le géant des logiciels Microsoft

    Sam Altman, cofondateur et PDG d'OpenAI, a affirmé dans une récente interview que l'intelligence artificielle générale (IAG) pourrait à terme bouleverser, voire détruire, le capitalisme. L’homme d'affaires de 37 ans, qui se prépare à une potentielle apocalypse créée par une IA de type Skynet ou un virus modifié en laboratoire, affirme qu'il imagine constamment différents scénarios dans lesquels l'IA fait sauter le capitalisme. En outre, Sam Altman a déclaré que ChatGPT n'en est qu'à ses débuts et qu'il évoluera au fil des ans vers une technologie de plus en plus sophistiquée, avec un impact plus considérable sur la société.

    Sam Altman n'est pas simplement un survivaliste avec une grande réserve d'or qui loue des avions pour les faire voler dans toute la Californie juste pour s'amuser. Le PDG de 37 ans est également connu pour avoir été un critique virulent du modèle économique qui prévaut aujourd'hui dans le monde : le capitalisme. Et il semble avoir un plan pour mettre le bâton dans les roues des capitalistes et provoquer la chute du système. C'est du moins ce qu'il a laissé entendre lors de sa récente interview avec Forbes dans laquelle il a abordé brièvement les plans d'OpenAI dans le domaine de l'IA et l'IAG et les bouleversements qu'elles pourraient entrainer dans le futur.

    Alors que le ciel semble être la limite pour ChatGPT et ses applications potentielles, Sam Altman affirme que l'IAG avancée à laquelle ChatGPT aspire à terme n'en est qu'à ses débuts. Et si les choses vont dans le bon sens pour OpenAI, cela pourrait même bouleverser le modèle économique contre lequel Sam Altman se rebellait lorsqu'il a cofondé la startup avec Elon Musk en 2015. « Je pense que si l'IAG se produit vraiment pleinement, je peux imaginer toutes ces façons dont elle brise le capitalisme », a déclaré Sam Altman dans une interview avec Forbes publiée vendredi. Il a déclaré que l'IAG est l'impulsion qui guide ses actions et constitue sa raison d'être.

    Nom : 213ml.png
Affichages : 5362
Taille : 458,3 Ko
    Sam Altman, PDG d'OpenAI

    Pour rappel, l'intelligence artificielle générale (IAG) est la représentation de capacités cognitives humaines généralisées dans un logiciel de sorte que, face à une tâche inconnue, le système d'IAG puisse trouver une solution. L'intention d'une IAG est d'accomplir toute tâche dont un être humain est capable. Toutefois, les définitions de l'IAG varient, car les experts de différents domaines définissent l'intelligence humaine selon différentes perspectives. Les informaticiens définissent souvent l'intelligence humaine en termes de capacité à atteindre des objectifs. Mais les psychologues définissent souvent l'intelligence générale en termes d'adaptabilité ou de survie.

    En créant OpenAI, Sam Altman et ses partenaires ont en fait entrepris de contrer l'hégémonie croissante de Google dans le domaine de l'IA. À l'époque, Google venait de finaliser l'acquisition de DeepMind, la startup londonienne spécialisée dans l'IA pour 500 millions de dollars. Il y a deux ans, DeepMind a réalisé une percée majeure en cataloguant presque toutes les protéines connues du corps humain. S'opposant à l'idée qu'un seul géant de la technologie puisse monopoliser la recherche sur l'IA pour les années à venir, Sam Altman a affirmé lors de l'interview que la mission d'OpenAI était tout le contraire : démocratiser entièrement la technologie.

    Mais encore, il a ajouté qu'OpenAI entend distribuer les bénéfices aussi équitablement que possible en partageant en permanence avec le monde entier les travaux, les recherches et même les brevets de l'entreprise. « Notre but est de faire progresser l'intelligence numérique de la manière la plus susceptible de bénéficier à l'humanité dans son ensemble, sans être contraints par la nécessité de générer un retour financier. Puisque notre recherche est libre de toute obligation financière, nous pouvons mieux nous concentrer sur un impact humain positif », a annoncé l'entreprise dans une déclaration lors du lancement de ses activités il y a environ huit ans.

    Lorsque Microsoft a confirmé qu'il étendait son partenariat avec OpenAI le mois dernier, le PDG Satya Nadella a déclaré dans un communiqué que les deux entreprises partagent l'ambition de "démocratiser l'IA en tant que nouvelle plateforme technologique". Il estime que le partenariat avec OpenAI permettrait aux entreprises d'avoir accès à des outils tels que ChatGPT dans les courriels, les diaporamas et les feuilles de calcul sur le lieu de travail. Ainsi, Microsoft a lancé Azure OpenAI et a déclaré que le service permettra aux entreprises de toute taille et de tous les domaines d'avoir désormais accès aux modèles d'IA les plus avancés au monde.

    ChatGPT devrait renforcer la compétitivité de Microsoft Azure face à Amazon Web Services (AWS) et Google Cloud Platform (GCP). Depuis son lancement en novembre dernier, ChatGPT est devenu extrêmement populaire dans le monde entier. Des millions de personnes ont utilisé le chatbot pour faire leurs devoirs ou pour les aider à préparer des recettes de cuisine. Selon des chiffres publiés en janvier, ChatGPT a atteint un million d'utilisateurs en cinq jours seulement et a été déclaré récemment l'application à la croissance la plus rapide de l'histoire, se développant plus rapidement que les piliers des médias sociaux, notamment Instagram et TikTok.

    Cependant, les sceptiques ne peuvent s'empêcher de remarquer qu'OpenAI commence à se comporter de manière beaucoup moins anticapitaliste qu'auparavant, maintenant que son sort financier est lié à celui de Microsoft, qui est virtuellement responsable de la startup d'IA jusqu'à ce qu'OpenAI soit en mesure de rembourser l'investissement initial du géant technologique, avec les intérêts. OpenAI fait l'objet de critiques en raison de son partenariat avec Microsoft. OpenAI a reçu un milliard de dollars de la part de Microsoft en 2019 et en janvier, le géant de Redmond a annoncé qu'il a de nouveau investi plusieurs milliards de dollars dans la startup d'IA.


    Depuis 2019, OpenAI n'est plus une organisation à but non lucratif, mais une entreprise à profit plafonné. Et les investissements de Microsoft poussent la startup dans une quête de revenus afin de rembourser ses dettes. Quelques semaines après le lancement de ChatGPT, Sam Altman a écrit sur Twitter en décembre qu'il "devrait le monétiser d'une manière ou d'une autre à un moment donné". OpenAI a lancé la semaine dernière ChatGPT Plus, qui coûte 20 $ par mois. Mais lors de l'interview, Sam Altman a déclaré qu'il croit toujours qu'OpenAI peut trouver un équilibre entre son objectif de démocratisation et ses nouveaux intérêts monétaires.

    Selon certaines sources, de nombreux employés qui étaient là au début de l'aventure ont quitté OpenAI en raison de changements culturels et stratégiques, notamment d'une moindre importance accordée à la démocratisation de l'IA. En outre, Sam Altman est l'un des seuls cofondateurs encore présents. La plupart, en particulier Elon Musk, ont quitté l'entreprise. La décision de l'entreprise de passer d'un laboratoire de recherche en IA à une entreprise à but lucratif en 2019 serait la raison à l'origine de plusieurs de ces départs. Quant à Elon Musk, il aurait quitté l'entreprise en 2018 en raison de désaccords sur sa direction et d'un conflit d'intérêts.

    En septembre 2020, Elon Musk a critiqué les liens entre OpenAI et Microsoft, soulignant que la startup était en train d'être absorbée par le géant de Redmond. « Cela semble être le contraire de l’ouverture. OpenAI est essentiellement capté par Microsoft », a-t-il écrit dans un tweet du 24 septembre 2020. Le tweet d'Elon Musk était en réponse à une annonce selon laquelle Microsoft a obtenu la licence exclusive du modèle de langage GPT-3 d'OpenAI dans le cadre de son partenariat avec la startup d'IA. Aujourd'hui, comme à l'époque, les critiques de Sam Altman continuent d'affirmer que cela n'est en aucun cas un exemple de démocratisation de l'IA.

    En outre, lors de sa récente interview avec Forbes, Sam Altman a déclaré : « je pense que le capitalisme est génial. J'adore le capitalisme. Je considère le capitalisme comme le meilleur modèle économique parmi un mauvais groupe. J'espère que nous en trouverons un bien meilleur ». Le PDG a réitéré l'idée qu'aucune entreprise ne devrait posséder l'IA et en accaparer les bénéfices, et a ajouté qu'il faisait tout ce qu'il pouvait pour qu'OpenAI ne le devienne pas. Cependant, l'entreprise qu'il dirige est de plus en plus critiquée, les critiques estimant que cela fait des années qu'OpenAI s'est considérablement éloignée de ses objectifs initiaux.

    Source : Forbes

    Et vous ?

    Quel est votre avis sur le sujet ?
    Que pensez-vous des propos du PDG d'OpenAI Sam Altman ?
    Pensez-vous que l'IA, ou l'IAG, peut remettre en cause le capitalisme ? Pourquoi ?
    Pensez-vous qu'OpenAI s'est détournée de son but initial qui est de démocratiser l'intelligence artificielle ?
    Le partenariat avec Microsoft empêche-t-il OpenAI de poursuivre ce but ?
    Pensez-vous que tout le monde peut bénéficier équitablement des progrès dans le domaine de l'IA ?

    Voir aussi

    Découvrez Sam Altman, PDG d'OpenAI, qui a appris à programmer à l'âge de 8 ans et qui se prépare également à l'apocalypse avec une réserve d'or, des armes et des masques à gaz

    ChatGPT réussit l'entretien de codage Google pour un ingénieur de niveau 3 avec un salaire de 183 000 $, tout en indiquant qu'il ne peut pas reproduire la créativité humaine

    Voici la liste des entreprises qui détiennent le plus grand nombre de brevets d'IA en 2021 : Tencent arrive en tête du classement avec 9 614 brevets déposés, suivi de près par Baidu puis par IBM

  2. #2
    Invité
    Invité(e)
    Par défaut Cet homme sait-il vraiment ce qu'il dit ?
    Perso, j'attends toujours que ChatGPT soit open-source (enfin, revienne open source comme GPT-2 d'avant) OpenIA n'est plus du tout "open".
    Comme l'article l'indique, ils sont désormais à but lucratif et ce PDG dit toujours tout et son contraire pour avoir une bonne image ...

  3. #3
    Expert éminent Avatar de kain_tn
    Homme Profil pro
    Inscrit en
    Mars 2005
    Messages
    1 686
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : Suisse

    Informations forums :
    Inscription : Mars 2005
    Messages : 1 686
    Points : 7 902
    Points
    7 902
    Par défaut
    Citation Envoyé par Bill Fassinou Voir le message
    Quel est votre avis sur le sujet ?
    Pour le moment, vu que son truc est payant, que ses investisseurs sont des GAFAM et consorts, qu'il présente son truc comme la fin de beaucoup d'emplois actuels, on va plutôt vers du capitalisme encore plus extrême.

    Les inventeurs de la dynamite pensaient mettre fin aux guerres. Idem pour les inventeurs de diverses bombes atomiques.

  4. #4
    Membre extrêmement actif
    Homme Profil pro
    Ingénieur développement logiciels
    Inscrit en
    Août 2022
    Messages
    755
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Âge : 44
    Localisation : France, Hauts de Seine (Île de France)

    Informations professionnelles :
    Activité : Ingénieur développement logiciels
    Secteur : Communication - Médias

    Informations forums :
    Inscription : Août 2022
    Messages : 755
    Points : 0
    Points
    0
    Par défaut
    De ce que j'ai lu de ses différentes interviews depuis le temps, je pense qu'il est sincère quand il dit qu'il est contre le capitalisme.

    Mais il est tout simplement coincé, ce monde fonctionne avec le capitalisme et même le communisme est du capitalisme qui ne dit pas son nom.

    Nous pourrions sortir de tout ça, nous pourrions sortir des religions, des guerres, du racisme, de l'homophobie, du fait de tuer des formes de vies ressentant la douleur et des émotions, pour nous nourrir.

    Mais c'est comme pisser dans un violon, il y 8 milliards d'humains sur terre, dont 6 milliards sont des abrutis profonds, le capitalisme est le seul moyen d'arriver à contrôler tout ces bas de plafonds.

  5. #5
    Expert confirmé
    Homme Profil pro
    ingénieur qualité
    Inscrit en
    Mars 2015
    Messages
    1 357
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : Belgique

    Informations professionnelles :
    Activité : ingénieur qualité
    Secteur : Aéronautique - Marine - Espace - Armement

    Informations forums :
    Inscription : Mars 2015
    Messages : 1 357
    Points : 4 093
    Points
    4 093
    Par défaut
    Ce mec à l'air sincère mais manque un peu de recul sur ce qu'il fait.
    Il condamne sincèrement (je penses) le capitalisme, la propriété de l'IA, l'IA qui va mener à l'apocalypse etc mais il les pratique au niveau le plus haut.
    Dans quelques années il va nous annoncer créer une entreprise de recherche en mutation de vaccin.

    Ce qui me fait le plus peur est ce qu'il va se passer quand il va se rendre compte qu'il a créer ce qu'il craint le plus.
    Soit il va devenir un Musk² soit il va exploser en vol. Dans les deux cas on risque de le sentir passer.

  6. #6
    Membre extrêmement actif
    Homme Profil pro
    Ingénieur développement logiciels
    Inscrit en
    Août 2022
    Messages
    755
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Âge : 44
    Localisation : France, Hauts de Seine (Île de France)

    Informations professionnelles :
    Activité : Ingénieur développement logiciels
    Secteur : Communication - Médias

    Informations forums :
    Inscription : Août 2022
    Messages : 755
    Points : 0
    Points
    0
    Par défaut
    Citation Envoyé par totozor Voir le message
    Ce mec à l'air sincère mais manque un peu de recul sur ce qu'il fait.
    Il condamne sincèrement (je penses) le capitalisme, la propriété de l'IA, l'IA qui va mener à l'apocalypse etc mais il les pratique au niveau le plus haut.
    Dans quelques années il va nous annoncer créer une entreprise de recherche en mutation de vaccin.

    Ce qui me fait le plus peur est ce qu'il va se passer quand il va se rendre compte qu'il a créer ce qu'il craint le plus.
    Soit il va devenir un Musk² soit il va exploser en vol. Dans les deux cas on risque de le sentir passer.
    Moi je pense que si ce n'est pas lui ça sera quelqu'un d'autre, donc ça ne sert à rien de luter.
    L'avènement de l'IA de toute manière va se produire et l'humain a été bien trop longtemps la forme de vie la plus intelligente de la planète.

    Quand j'écris bien "trop longtemps", c'est pour indiquer que l'humain au lieu d'être bienveillant avec ses capacités, a été l'inverse.
    Toutes les ethnies, toutes les races, toutes les cultures, aucune pour rattraper l'autre, voir pire, certains qui servent de bouc émissaire pour les autres n'aient pas à assumer avoir été pareil voir pire. (pour ne pas citer le fameux racisme anti blancs qui seraient d'après certains le seul racisme qui ne pourrait pas exister)

    Perso, que l'avènement de l'IA se fasse, ne serait-ce que pour remettre de l'eau dans son vin à l'humain, à échelle mondiale.

  7. #7
    Chroniqueur Actualités

    Homme Profil pro
    Dirigeant
    Inscrit en
    Juin 2016
    Messages
    3 160
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : Bénin

    Informations professionnelles :
    Activité : Dirigeant
    Secteur : Aéronautique - Marine - Espace - Armement

    Informations forums :
    Inscription : Juin 2016
    Messages : 3 160
    Points : 66 307
    Points
    66 307
    Par défaut Le PDG d'OpenAI veut que les développeurs qui travaillent sur des rivaux de ChatGPT mettent des garde-fous
    Le PDG d'OpenAI craint que les autres développeurs d'IA qui travaillent sur des outils de type ChatGPT ne mettent pas de limites de sécurité
    il estime que cela pourrait créer une IA plus diabolique

    Le PDG d'OpenAI, Sam Altman, a déclaré dans une récente interview qu'il s'inquiétait de la montée en puissance des concurrents de ChatGPT qui pourraient ne pas se sentir obliger d'établir des garde-fous de sécurité solides et fiables pour leurs modèles d'IA. Sam Altman a déclaré qu'en raison des retombées économiques et sociales de l'IA, beaucoup d'entreprises et de gouvernements sont susceptibles de donner la priorité au pouvoir et au profit plutôt qu'à la sécurité et à l'éthique comme l'a fait OpenAI. Ses propos font écho à ceux de Google, qui a longuement hésité à publier les modèles d'IA de type ChatGPT sur lesquels il a commencé à travailler bien avant OpenAI.

    « Ce qui m'inquiète, c'est que nous ne serons pas les seuls à créer cette technologie. Il y aura d'autres acteurs qui n'appliqueront pas certaines des limites de sécurité que nous avons fixées. Je pense que la société dispose d'un temps limité pour déterminer comment réagir face à cela. Comment le réglementer, comment le gérer. Je crains particulièrement que ces modèles soient utilisés à des fins de désinformation à grande échelle. Maintenant qu'ils savent mieux écrire des codes informatiques, ils pourraient être utilisés pour des cyberattaques offensives », a déclaré Sam Altman lors d'une interview accordée à la chaîne ABC News la semaine dernière.

    Les chatbots d'IA font de plus en en plus partie de notre vie numérique, et beaucoup d'entre nous profitent de cette technologie pour communiquer en ligne avec leurs amis et leur famille. Toutefois, comme pour toute nouvelle technologie, il y a forcément des problèmes de démarrage et des questions à résoudre. L'un des principaux problèmes des chatbots d'IA tels que ChatGPT et Bard est leur tendance à présenter en toute confiance des informations incorrectes comme étant des faits avérés. Les systèmes "hallucinent" fréquemment - c'est-à-dire qu'ils inventent des informations - parce qu'ils sont essentiellement des logiciels d'IA d'autocomplétion.


    Plutôt que d'interroger une base de données de faits avérés pour répondre aux requêtes, ils sont formés sur d'énormes corpus de textes et analysent des modèles pour déterminer quel mot suit le suivant dans une phrase donnée. En d'autres termes, ils sont probabilistes et non déterministes, ce qui a conduit certains spécialistes en IA à les qualifier de "générateurs de conneries". Bien qu'Internet soit déjà rempli d'informations fausses et trompeuses, l'utilisation des chatbots d'IA comme moteurs de recherche pourrait aggraver le problème. Selon les experts, dans ce cas, les réponses des chatbots prennent l'autorité d'une machine qui se voudrait omnisciente.

    Les chatbots d'IA font également face à des problèmes tels que la propagation des infox et la confidentialité des données, ainsi que des questions d'ordre éthique. Dans ce dernier cas, les développeurs sont confrontés à d'importantes questions éthiques sur la manière de concevoir les chatbots d'IA. Ils doivent notamment décider quels sont les sujets sur lesquels les chatbots d'IA peuvent plaisanter et quels sont ceux qui sont interdits. Selon les analystes, la tâche n'est pas aisée, car les chatbots d'IA sont souvent conçus pour des publics internationaux et doivent donc tenir compte des sensibilités de personnes de cultures, de réalité et de religions différentes.

    Il y a déjà eu un certain nombre de scandales impliquant des chatbots d'IA. Par exemple, en Inde, certains utilisateurs ont été offensés par le fait que ChatGPT pouvait faire des blagues sur Krishna, mais pas sur Muhammad ou Jésus. Cela met en évidence les défis auxquels les développeurs sont confrontés lorsqu'ils tentent de créer des chatbots d'IA respectueux de toutes les religions et de toutes les cultures. Aux États-Unis, les conservateurs ont accusé ChatGPT d'être "woke", partial et de défendre les valeurs de gauche. Elon Musk, cofondateur d'OpenAI, a affirmé que ChatGPT est l'exemple d'une IA dangereuse et que le chatbot d'IA a été formé pour être woke.

    OpenAI a partagé la semaine dernière un document qui décrit la façon dont ses testeurs ont délibérément essayé de faire en sorte que GPT-4 leur fournisse des informations dangereuses - telles que la fabrication d'un produit chimique dangereux à l'aide d'ingrédients de base et de fournitures de cuisine - et la façon dont l'entreprise a corrigé les problèmes avant le lancement de l'outil. Dans un autre exemple d'utilisation détournée de l'IA, des escrocs téléphoniques utilisent désormais des outils d'IA de clonage de voix pour se faire passer pour des parents ayant désespérément besoin d'une aide financière, et réussissent à soutirer de l'argent aux victimes.

    Compte tenu du fait qu'Altman dirige une entreprise qui vend des outils d'intelligence artificielle, il s'est montré particulièrement ouvert sur les dangers posés par l'IA. Alors qu'il poursuit les travaux d'OpenAI sur l'IA, Altman estime que les entreprises et les régulateurs doivent travailler ensemble pour établir une réglementation sur le développement de l'IA. « Nous avons besoin de suffisamment de temps pour que nos institutions sachent quoi faire. Il est essentiel d'avoir le temps de comprendre ce qui se passe, la manière dont les gens veulent utiliser ces outils et la manière dont la société peut évoluer en même temps qu'eux », a déclaré Altman.

    Selon les analystes, Altman n'a pas tort, dans une certaine mesure. Dans cette course effrénée à l'IA, beaucoup d'entreprises et de superpuissances sont susceptibles de donner la priorité au pouvoir et au profit plutôt qu'à la sécurité et à l'éthique. Il est également vrai que la technologie de l'IA dépasse rapidement la réglementation gouvernementale, malgré les nombreux milliards investis dans le logiciel. Quoi qu'il en soit, il s'agit là d'une combinaison dangereuse. Cela dit, selon eux, il serait plus facile de prendre au sérieux les propos de Altman si l'IA, même avec les meilleures intentions et les meilleurs garde-fous, n'était pas si inconstante par nature.

    Ces algorithmes sont imprévisibles, et il est impossible de savoir comment les systèmes d'IA et leurs protections se comporteront lorsque leurs produits seront mis à la disposition du public. Il y a aussi le fait que, malgré sa posture de chevalier blanc, OpenAI ne veut révéler à personne tous les détails sur le fonctionnement réel de ses modèles d'IA et de leurs garde-fous. En effet, OpenAI a été fondée en tant qu'entreprise à but non lucratif et s'est engagée à partager ses découvertes ainsi que les codes sources avec la communauté des développeurs d'IA. Mais l'entreprise a fait un virage à 180 degrés depuis 2019 et est aujourd'hui complètement fermée.

    Dans le document technique publié par OpenAI en marge du lancement de GPT-4, l'entreprise a l'intention de continuer ainsi. « En raison du paysage concurrentiel et des implications en matière de sécurité des grands modèles de langage comme GPT-4, ce rapport ne contient pas d'autres détails sur l'architecture (y compris la taille du modèle), le matériel, le calcul d'entraînement, la construction de l'ensemble de données, la méthode d'entraînement, ou similaire », indique le document technique. Cette déclaration de l'entreprise l'éloigne radicalement de sa vision initiale et du plaidoyer d'Altman, car cela nuit à toute collaboration avec la communauté.

    En fait, OpenAI soutient en même temps qu'elle ne peut pas révéler d'informations exclusives, y compris sur ses mesures de sécurité, parce que cela pourrait lui coûter de l'argent et parce que cela offrirait le fonctionnement interne de sa technologie à tout mauvais acteur potentiel, comme ceux dont Altman se méfie dans l'interview. Bien qu'Altman ait plaidé et continue de plaider en faveur d'une réglementation, lui et OpenAI fonctionnent toujours sans réglementation. Pour l'instant, c'est à OpenAI de définir ce que l'éthique et la sécurité signifient et devraient être. Et en gardant ses modèles fermés, le public pourrait avoir du mal à lui accorder sa confiance.

    En fin de compte, c'est une chose de dire que l'on fait tout ce qu'il faut. C'en est une autre de le montrer, et tandis qu'OpenAI continue de se positionner comme le bon gars dans la tempête qui s'annonce, il est important de se rappeler que l'entreprise, très fermée, fait beaucoup plus de révélations que de démonstrations. D'après les critiques, même avec les meilleures intentions, ou les meilleurs garde-fous, les technologies naissantes ont souvent des effets négatifs imprévisibles, ou tout à fait prévisibles, mais inévitables. Ils estiment que l'avertissement d'Altman a ses mérites, mais il faut peut-être le prendre avec un grain de sel.

    Source : Interview de Sam Altman, PDG d'OpenAI

    Et vous ?

    Quel est votre avis sur le sujet ?
    Que pensez-vous des mises en garde de Sam Altman ?
    Selon vous, OpenAI laisse-t-elle la place à une collaboration avec les autres entreprises d'IA ?
    Pensez-vous que l'on arrivera à trouver un consensus sur des règles régissant le développement de l'IA ?

    Voir aussi

    Le PDG d'OpenAI affirme que sa technologie est susceptible de "détruire le capitalisme", mais la startup d'IA est critiquée pour son partenariat avec le géant des logiciels Microsoft

    Découvrez Sam Altman, PDG d'OpenAI, qui a appris à programmer à l'âge de 8 ans et qui se prépare également à l'apocalypse avec une réserve d'or, des armes et des masques à gaz

    Une recherche avec Bard de Google et ChatGPT de Microsoft coûte probablement 10 fois plus qu'une recherche par mot-clé, ce qui pourrait représenter « plusieurs milliards de dollars de surcoûts »

    Les conservateurs affirment que ChatGPT est devenu "woke" et s'inquiètent à propos de la partialité du chatbot d'OpenAI, ils accusent également le chatbot de défendre les "valeurs de gauche"

  8. #8
    Membre éclairé
    Profil pro
    Inscrit en
    Avril 2008
    Messages
    468
    Détails du profil
    Informations personnelles :
    Localisation : France

    Informations forums :
    Inscription : Avril 2008
    Messages : 468
    Points : 693
    Points
    693
    Par défaut
    (...) Ils estiment que l'avertissement d'Altman a ses mérites, mais il faut peut-être le prendre avec un grain de sel.
    "grain de sel", moi j'y vois seulement de fausses-justifications contre l'open-source pour le profit

  9. #9
    Communiqués de presse

    Femme Profil pro
    Rédacteur technique
    Inscrit en
    Mai 2018
    Messages
    2 135
    Détails du profil
    Informations personnelles :
    Sexe : Femme
    Âge : 34
    Localisation : France, Paris (Île de France)

    Informations professionnelles :
    Activité : Rédacteur technique
    Secteur : Communication - Médias

    Informations forums :
    Inscription : Mai 2018
    Messages : 2 135
    Points : 158 406
    Points
    158 406
    Par défaut Le PDG d'OpenAI se dit effrayé par sa propre invention
    Le PDG d'OpenAI, Sam Altman, se dit effrayé par sa propre invention, l'IA pourrait être utilisée pour diffuser largement de fausses informations, ou encore lancer une nouvelle course à l'armement

    Depuis qu'Oppenheimer a vu les effets effroyables de la bombe atomique qu'il a contribué à créer, les inventeurs se méfient de toute vision optimiste de ce que leurs innovations peuvent faire. Il semble que le PDG d'OpenAI, Sam Altman, ait lui aussi des doutes sur le ChatGPT, et il a récemment mentionné qu'il le craignait quelque peu dans une interview accordée à ABC News.

    Ceci étant dit, il est important de noter qu'Altman a mentionné quelques domaines clés dans lesquels l'IA pourrait s'avérer problématique. Tout d'abord, M. Altman craint que des régimes autoritaires ne finissent par créer leur propre IA et ne s'empressent de l'utiliser pour diffuser de la désinformation et des fausses nouvelles à leurs propres fins néfastes.

    Une société chinoise du nom de Baidu a déjà présenté un concurrent de ChatGPT, à savoir le chatbot connu sous le nom d'Ernie. Le gouvernement chinois est connu pour exercer un contrôle important sur les entreprises qui opèrent à l'intérieur de ses frontières, ce qui pourrait rendre Ernie plus dangereux.

    De plus, Vladimir Poutine a également fait des commentaires effrayants sur l'IA. Selon lui, celui qui contrôlera l'IA finira par contrôler le monde, ce qui fait froid dans le dos car c'est le genre de chose qui pourrait potentiellement déclencher une nouvelle course à l'armement avec l'IA au centre de tout cela.

    Enfin, M. Altman s'intéresse à l'élection présidentielle américaine de 2024, car le ChatGPT et d'autres formes d'IA pourraient avoir de nombreuses répercussions sur l'élection. Il reste à voir si l'IA jouera un rôle négatif ou non, mais ce qui est certain, c'est qu'elle jouera un rôle définitif dans un cas comme dans l'autre.

    Google et Microsoft augmentent leurs investissements dans l'IA. L'IA est donc inévitable, puisqu'elle sera l'objectif principal de deux des plus grandes entreprises technologiques du monde et qu'aucune d'entre elles ne s'arrêtera avant d'être arrivée en tête.


    Source : Sam Altman

    Et vous ?

    Qu'en pensez-vous ?
    Quel est votre avis sur l'évolution actuelle de l'intelligence artificielle ?
    Etes-vous inquiet des effets néfastes que pourraient générer les technologies d'IA comme ChatGPT ?

    Voir aussi :

    Le PDG d'OpenAI craint que les autres développeurs d'IA qui travaillent sur des outils de type ChatGPT ne mettent pas de limites de sécurité, il estime que cela pourrait créer une IA plus diabolique

    GPT-4 produirait volontairement des informations erronées, beaucoup plus que GPT-3.5, selon une étude de NewsGuard, OpenAI avait pourtant déclaré le contraire

    Des cybercriminels testent le chatbot ChatGPT pour créer des logiciels malveillants, et ravivent des craintes sur un futur où l'intelligence artificielle pourra surpasser l'humanité

  10. #10
    Chroniqueur Actualités

    Homme Profil pro
    Dirigeant
    Inscrit en
    Juin 2016
    Messages
    3 160
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : Bénin

    Informations professionnelles :
    Activité : Dirigeant
    Secteur : Aéronautique - Marine - Espace - Armement

    Informations forums :
    Inscription : Juin 2016
    Messages : 3 160
    Points : 66 307
    Points
    66 307
    Par défaut Le PDG d'OpenAI, Sam Altman, déclare au Congrès américain qu'il craint que l'IA ne soit "nuisible" au monde
    Le PDG d'OpenAI, Sam Altman, déclare au Congrès américain qu'il craint que l'IA ne soit "nuisible" au monde
    il ajoute qu'une réglementation de l'IA est urgente afin d'éviter une catastrophe

    Le PDG d'OpenAI, Sam Altman, a déclaré lors d'une audition mardi devant le Congrès américain que l'IA est une technologie à la fois utile et dangereuse et qu'elle est susceptible de bouleverser l'économie, les institutions démocratiques et les principales valeurs sociales. Il a déclaré aux législateurs qu'il était urgent de réglementer la technologie et a présenté ses propres propositions sur la manière dont le gouvernement américain pourrait réglementer les entreprises comme la sienne. Ce n'est pas la première fois qu'Altman déclare être effrayé par les potentiels de l'IA, mais OpenAI et lui s'emploient toujours à développer des systèmes d'IA plus puissants.

    Altman et ses pairs sur les dangers potentiels de l'IA sur l'homme et la société

    Altman a comparu devant une sous-commission judiciaire du Sénat américain, aux côtés de Christina Montgomery, responsable de la protection de la vie privée chez IBM, et de Gary Marcus, professeur à l'université de New York. L'audition d'Altman devant le Sénat américain intervient environ deux semaines après sa participation à un sommet sur l'IA organisé par la Maison Blanche. Lors de l'audition, il s'est montré réfléchi et exigeant dans ses réponses aux sénateurs, même lorsque ceux-ci se sont montrés un peu combatifs. Altman a insisté sur le fait que les systèmes d'IA avancés tels que ChatGPT devraient être soumis à des licences gouvernementales.

    Il a déclaré aux législateurs américains qu'il était favorable à une réglementation plus stricte pour prévenir les "méfaits" de l'IA, en particulier de l'IA générative. « Ma pire crainte est que nous - l'industrie - causions des dommages importants au monde. Je pense que si cette technologie va mal, elle peut aller très mal et nous voulons nous exprimer à ce sujet et travailler avec le gouvernement. Nous pensons qu'une réglementation gouvernementale sera essentielle pour atténuer les risques liés à des modèles de plus en plus puissants », a déclaré Altman. Mais il n'a pas manqué de vanter les potentiels des systèmes d'IA développés par OpenAI et d'autres.


    Tout en vantant les avantages de l'IA, il a déclaré qu'OpenAI était préoccupé par le fait que les élections sont affectées par le contenu généré par l'IA. À ce propos, le professeur Marcus a souligné les risques liés aux systèmes d'IA qui convainquent subtilement les gens de changer leurs convictions sans le vouloir. « Nous ne savons pas sur quoi ChatGPT [la version basée sur le modèle de langage GPT-4] est entraîné. La manière dont ces systèmes peuvent guider les gens dépend beaucoup de ce sur quoi ils sont entraînés. Nous avons besoin de scientifiques qui analysent l'impact politique de ces systèmes », a déclaré le professeur Marcus au Sénat.

    En parlant des risques pour les prochaines élections présidentielles aux États-Unis en 2024, le professeur Marcus a ajouté : « nous sommes confrontés à la question de la manipulation potentielle. L'hyperciblage va certainement faire son apparition. Peut-être s'agira-t-il de modèles à source ouverte, je ne sais pas, mais la technologie est capable de le faire et elle y parviendra certainement ». Interrogé par les sénateurs sur ce point, Altman s'est dit d'accord. Il estime que le risque est réel et imminent, car ces modèles s'améliorent très rapidement. « Je pense qu'il serait judicieux d'adopter une réglementation à ce sujet », a-t-il déclaré une fois de plus.

    De son côté, Christina Montgomery, responsable de la protection de la vie privée chez IBM, a ajouté : « IBM demande instamment au Congrès d'adopter une approche réglementaire précise de l'IA. Cela signifie qu'il faut établir des règles pour régir le déploiement de l'IA dans des cas d'utilisation spécifiques, et non pas réglementer la technologie elle-même. Le Congrès devrait définir clairement les risques de l'IA et imposer des règles différentes pour des risques différents, les règles les plus strictes étant appliquées aux cas d'utilisation présentant les risques les plus importants pour les personnes et la société ». Big Blue est l'un des pionniers du domaine.

    Altman sur les solutions possibles pour établir une réglementation pour l'IA

    Le sénateur Dick Durbin (D-Ill) a déclaré que l'industrie de l'IA semblait avoir pour message "arrêtez-moi avant que je n'innove à nouveau", contrairement aux réseaux de médias sociaux, qui n'ont souvent pas voulu être tenus responsables des actions qui se sont produites sur leurs plateformes. En réponse, Altman a souligné que l'IA était une "technologie très nouvelle" et que l'industrie technologique avait besoin d'un "cadre de responsabilité" pour travailler. En outre, interrogé sur la possibilité que l'IA prenne en charge tous nos emplois, le professeur Marcus a déclaré aux sénateurs : « à terme, tous les emplois seront pris en charge par l'IA ».

    Cependant, il a ajouté : « mais nous ne sommes pas encore très proches de l'intelligence générale de l'IA ». Le professeur Marcus a déclaré au Sénat qu'il était très préoccupé par la sécurité des personnes lorsqu'il s'agit d'IA, affirmant que les États-Unis sont maintenant confrontés à "la tempête parfaite". L'universitaire a conseillé aux législateurs de tirer les leçons de ce qui s'est passé avec les médias sociaux. Altman a déclaré qu'il ne pensait pas que des exigences lourdes devraient s'appliquer aux entreprises et aux chercheurs dont les modèles sont beaucoup moins avancés que ceux d'OpenAI. Ses propositions peuvent se résumer comme suit :

    • créer une nouvelle agence gouvernementale chargée de délivrer des licences pour les grands modèles d'IA, et l'habiliter à retirer ces licences aux entreprises dont les modèles ne sont pas conformes aux normes gouvernementales ;
    • créer un ensemble de normes de sécurité pour les modèles d'IA, y compris des évaluations de leurs capacités dangereuses. Par exemple, les modèles devraient passer certains tests de sécurité, notamment pour savoir s'ils peuvent "s'autoreproduire" et "s'exfiltrer dans la nature", c'est-à-dire devenir des voyous, et commencer à agir de leur propre chef ;
    • exiger des audits indépendants, réalisés par des experts indépendants, des performances des modèles en fonction de divers paramètres.


    Les propositions d'Altman ont fortement été critiquées, de nombreux critiques affirmant qu'elles sont insuffisantes et ne couvrent pas toutes les préoccupations liées à ces systèmes d'IA. Pour être plus clair, parmi les propositions d'Altman, il n'est pas question d'exiger que les modèles d'IA soient transparents en ce qui concerne leurs données d'apprentissage, comme l'a demandé son collègue Gary Marcus, ou d'interdire leur apprentissage sur des œuvres protégées par des droits d'auteur, comme l'a suggéré le sénateur Marsha Blackburn (R-Tenn.). Il s'agit de deux points essentiels qui sont actuellement sujets à des débats intenses dans la communauté.

    Certains vont même jusqu'à affirmer que les appels d'Altman à une réglementation de l'IA sont une supercherie pour freiner les nouveaux acteurs du secteur. « Une fois que vous êtes établi dans un nouveau domaine, vous voulez ajouter autant d'obstacles que possible aux autres qui essaient de s'établir », a écrit un critique. Un autre a également écrit : « je travaille dans le domaine du calcul intensif et de la recherche sur l'IA. Les systèmes d'IA connus sont actuellement de très bons algorithmes de recherche et des manipulateurs d'images et de sons. Le message qu'Altman veut faire passer est le suivant : "fermez la porte ! Vous allez laisser entrer toute la racaille !" ».

    Pourtant, de nombreux sénateurs semblent désireux de confier l'autorégulation à Altman. Le sénateur John Neely Kennedy (R-La.) a demandé si Altman était lui-même qualifié pour superviser un organisme fédéral de réglementation de l'IA. Altman a hésité, déclarant qu'il aimait son travail actuel, mais il a proposé que son entreprise lui envoie une liste de candidats appropriés. Selon les critiques, l'approche des sénateurs pourrait avoir de graves répercussions sur l'industrie. Lors de son audition, Altman s'est également gardé de mentionner les biais des systèmes d'IA, une chose sur laquelle le professeur Marcus a longuement insisté.

    Altman sur la façon dont OpenAI monétise ChatGPT et sur l'avenir de l'IA

    Le sénateur Cory Booker a demandé à Altman si ChatGPT afficherait des publicités aux utilisateurs. En réponse, Altman a déclaré que, bien qu'il ne puisse pas l'exclure complètement, il préférait un modèle d'abonnement. OpenAI offre actuellement un abonnement payant à ChatGPT Plus, une version qui est basée sur GPT-4, le dernier modèle de langage du laboratoire d'IA. Dans une question un peu étrange, un autre sénateur a demandé au PDG d'OpenAI s'il gagnait beaucoup d'argent. Altman a répondu qu'il faisait son travail parce qu'il l'aimait, et que son salaire n'était pas assez élevé pour qu'une assurance maladie soit incluse dans sa rémunération.

    Le sénateur John Kennedy a répondu : « vraiment ? Vous avez besoin d'un avocat ou d'un agent ». Par la suite, les sénateurs ont interrogé Altman, Montgomery et le professeur Marcus sur la question de savoir si d'autres options plus radicales devraient être envisagées pour prévenir les méfaits de l'IA. Par exemple, le sénateur Cory Booker (D-N.J.) a demandé s'il ne fallait pas arrêter le développement de l'IA jusqu'à ce qu'il soit possible d'établir tous les risques et tous les remèdes. Mais Altman et ses pairs étaient contre cette alternative. Altman refuse l'idée d'un moratoire, mais a confirmé que son entreprise ne formait actuellement aucun modèle d'IA.

    La réponse d'Altman à Booker suggère qu'OpenAI a au moins envisagé la possibilité d'insérer des publicités dans la version gratuite de ChatGPT (la version basée sur le modèle de langage GPT3.5) afin de gagner de l'argent grâce à ses utilisateurs gratuits. Mais le fonctionnement de ChatGPT n'est pas gratuit pour OpenAI, ce qui signifie qu'il n'y a aucune garantie que la version gratuite sera toujours disponible. Certains législateurs craignent que les entreprises d'IA n'adoptent un jour ce modèle commercial financé par la publicité, qui, dans l'industrie des médias sociaux, a sans doute encouragé la conception de produits manipulateurs et d'algorithmes addictifs.

    Montgomery a également refusé l'idée d'un moratoire : « je ne suis pas sûre qu'il serait pratique de faire une pause, mais nous devrions absolument donner la priorité à la réglementation ». Même dans le camp des sénateurs, tout le monde ne partage pas cet avis. Le sénateur Richard Blumenthal n'est pas du tout d'accord avec l'idée d'une pause dans l'innovation en matière d'IA. « Le monde n'attendra pas. La communauté scientifique mondiale n'attendra pas. Nous avons des adversaires qui vont de l'avant. Des garanties et des protections, oui, mais un panneau d'arrêt plat, la politique de l'autruche, je m'y opposerais », a-t-il déclaré à l'assistance.

    Lors de l'audition, plusieurs sénateurs ont tiré la sonnette d'alarme au sujet de la consolidation des entreprises sur le marché de l'IA, avertissant qu'un petit nombre d'entreprises technologiques pourraient finir par dominer les outils. Le sénateur Booker a déclaré qu'il s'agissait là de l'une de ses plus grandes préoccupations en matière d'IA. Il a cité en exemple le partenariat d'OpenAI avec le géant technologique Microsoft. « Il est vraiment terrifiant de voir à quel point un petit nombre d'entreprises contrôlent et affectent la vie d'un si grand nombre d'entre nous, et ces entreprises sont de plus en plus grandes et puissantes », a-t-il déclaré.

    En réponse, Altman a déclaré qu'il pensait qu'il y aurait un nombre relativement restreint de fournisseurs capables de créer des modèles d'IA à grande échelle, mais il a également suggéré qu'il pourrait y avoir des avantages réglementaires à n'avoir qu'une poignée d'acteurs dans ce rôle. « Moins nous serons nombreux à devoir être surveillés, plus nous aurons d'avantages. Mais je pense qu'il faut qu'il y ait suffisamment de concurrence et qu'il y en aura », a-t-il déclaré. Selon les critiques, cette déclaration d'Altman démontre qu'il milite en faveur d'une réglementation pour consolider l'avantage d'OpenAI sur ses concurrents et contrôler le secteur.

    Et vous ?

    Quel est votre avis sur le sujet ?
    Que pensez-vous des déclarations de Sam Altman devant le Congrès américain ?
    Que pensez-vous des appels répétés d'Altman à la mise en place d'une réglementation sur l'IA ?
    Pensez-vous qu'il s'agit d'une supercherie ? Altman a-t-il l'intention de compliquer la tâche aux nouveaux arrivants ?
    Que pensez-vous des déclarations de la représentante d'IBM et de l'universitaire Gary Marcus ?
    Pensez-vous que la version gratuite de ChatGPT va perdurer ? Dans ce cas, restera-t-elle sans publicité ?

    Voir aussi

    Découvrez Sam Altman, PDG d'OpenAI, qui a appris à programmer à l'âge de 8 ans et qui se prépare également à l'apocalypse avec une réserve d'or, des armes et des masques à gaz

    Le PDG d'OpenAI affirme que sa technologie est susceptible de "détruire le capitalisme", mais la startup d'IA est critiquée pour son partenariat avec le géant des logiciels Microsoft

    Le PDG d'OpenAI, Sam Altman, se dit effrayé par sa propre invention, l'IA pourrait être utilisée pour diffuser largement de fausses informations, ou encore lancer une nouvelle course à l'armement

    Le PDG d'OpenAI craint que les autres développeurs d'IA qui travaillent sur des outils de type ChatGPT ne mettent pas de limites de sécurité, il estime que cela pourrait créer une IA plus diabolique

  11. #11
    Expert éminent sénior

    Femme Profil pro
    Rédacteur Web
    Inscrit en
    Mars 2020
    Messages
    838
    Détails du profil
    Informations personnelles :
    Sexe : Femme
    Localisation : Cameroun

    Informations professionnelles :
    Activité : Rédacteur Web

    Informations forums :
    Inscription : Mars 2020
    Messages : 838
    Points : 58 043
    Points
    58 043
    Par défaut Le PDG de OpenAI se dit "optimiste" quant à la coordination mondiale de l'IA.
    Le PDG de OpenAI se dit "optimiste" quant à la coordination mondiale de l'IA
    en matière d'intelligence artificielle

    Le PDG du fabricant de ChatGPT, OpenAI, a déclaré qu'une tournée des capitales l'avait rendu « assez optimiste » quant aux perspectives de coordination mondiale en matière d'intelligence artificielle (IA).

    Nom : Screenshot_2023-06-13 Sam Altman d'OpenAI la richesse générée par l'IA permettra d'instaurer un .png
Affichages : 2631
Taille : 149,6 Ko
    Sam Altman – Cofondateur et PDG d'OpenAI


    Le visage public de la startup, soutenue par Microsoft Corp, a effectué une tournée éclair afin de capitaliser sur l'intérêt pour l'IA générative et d'exercer une influence sur la réglementation de cette technologie en plein essor. « J'étais sceptique quant à la possibilité d'obtenir à court terme une coopération mondiale pour réduire les risques existentiels, mais je termine ce voyage en étant optimiste quant à la possibilité d'y parvenir », a déclaré Sam Altman à des étudiants à Tokyo.


    Les régulateurs s'efforcent d'adapter les règles existantes et de créer de nouvelles lignes directrices pour régir l'utilisation de l'IA générative, qui peut créer du texte et des images et qui suscite à la fois de l'enthousiasme et de la crainte quant à son potentiel à remodeler un large éventail d'industries.

    L'Union européenne va de l'avant avec son projet de loi sur l'IA, qui devrait être adopté cette année, tandis que les États-Unis préfèrent adapter les lois existantes à l'IA plutôt que d'en créer de nouvelles.


    Altman s'est rendu au Japon en avril, où il a rencontré le premier ministre Fumio Kishida et a déclaré qu'il envisageait d'ouvrir un bureau dans le pays. « Toutes les conversations ont bien progressé », a déclaré Altman, sans fournir de détails.

    Le Japon est considéré comme un retardataire dans les types de services d'IA qui suscitent actuellement l'enthousiasme des consommateurs, même si ses poids lourds de l'industrie manufacturière investissent dans la technologie de l'automatisation. « Il y a une longue histoire d'humains et de machines qui travaillent ensemble ici », a déclaré Altman.

    Altman doit se rendre à Singapour, en Indonésie et en Australie avant de retourner aux États-Unis.

    Source : Le PDG de ChatGPT, Sam Altman

    Et vous ?

    Quel est votre avis sur le sujet ?
    Que pensez-vous des propos du PDG d'OpenAI Sam Altman ?

    Voir aussi :

    Le PDG d'OpenAI affirme que sa technologie est susceptible de "détruire le capitalisme", mais la startup d'IA est critiquée pour son partenariat avec le géant des logiciels Microsoft

    Le PDG d'OpenAI, Sam Altman, s'apprête à lever 100 millions de dollars pour son projet de cryptomonnaie Worldcoin, qui vise à créer une base de données mondiale des scans rétiniens des utilisateurs

    Le PDG d'OpenAI craint que les autres développeurs d'IA qui travaillent sur des outils de type ChatGPT ne mettent pas de limites de sécurité, il estime que cela pourrait créer une IA plus diabolique

    Le PDG d'OpenAI, Sam Altman, se dit effrayé par sa propre invention, l'IA pourrait être utilisée pour diffuser largement de fausses informations, ou encore lancer une nouvelle course à l'armement

  12. #12
    Membre émérite
    Homme Profil pro
    Chargé de projets
    Inscrit en
    Décembre 2019
    Messages
    737
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Âge : 34
    Localisation : France, Hérault (Languedoc Roussillon)

    Informations professionnelles :
    Activité : Chargé de projets
    Secteur : High Tech - Éditeur de logiciels

    Informations forums :
    Inscription : Décembre 2019
    Messages : 737
    Points : 2 706
    Points
    2 706
    Par défaut
    Citation Envoyé par Nancy Rey Voir le message
    Le PDG de OpenAI se dit "optimiste" quant à la coordination mondiale de l'IA
    en matière d'intelligence artificielle

    Le PDG du fabricant de ChatGPT, OpenAI, a déclaré qu'une tournée des capitales l'avait rendu « assez optimiste » quant aux perspectives de coordination mondiale en matière d'intelligence artificielle (IA).
    Allez les copains, plutôt que de lire l'avis des pédégés voyons ce qu'en pensent les universitaires...

    La mauvaise nouvelle, donc, c’est qu’il s’avère compliqué de connaître et de critiquer ce nouveau monde des IA, encore en devenir, et inséparable du tout numérique. La bonne nouvelle, c’est que, depuis le numéro 72 de Multitudes, où nous nous amusions du crétinisme de ce « Bourgeois numérique » qui se pâme devant les miracles des IA, la servitude volontaire de notre Monsieur Jourdain a été révélée au grand jour.

    .../...

    Pour ne pas tomber dans le piège de la béatitude, il faut donc distinguer la pensée de la computation, se défaire de la métaphore du cerveau/machine et faire preuve de lucidité, en particulier sur ce que coûtent réellement ces outils en termes environnementaux. Luc Julia, pourtant co-créateur du Siri d’Apple et vice-président innovation de Samsung, écrit par exemple, à propos de l’IA de DeepMind, filiale de Google : elle « consomme plus de 440 000 watts par heure juste pour jouer au go, alors que notre cerveau fonctionne avec seulement 20 watts par heure et peut effectuer bien d’autres tâches… La réalité est que les méthodes et algorithmes utilisés en IA sont très différents des raisonnements effectués par les humains, qui utilisent une quantité infime d’énergie et de données. À l’avenir, au lieu de continuer dans la voie du big data, il faudrait se tourner vers le small data, qui consommerait beaucoup moins d’énergie.

    Même type de gueule de bois à propos de la croyance qui octroie à l’IA la faculté de créer autant d’emplois qu’elle en détruira, selon le dogme de la « destruction créatrice » de l’économiste Joseph Schumpeter. D’un côté, il y a les chiffres de l’OCDE (Organisation de coopération et de développement économiques), qui n’en finissent pas de grimper malgré l’indécrottable prudence de l’institution : dans son rapport sur L’avenir du travail publié le 25 avril 2019, elle affirme que la robotisation devrait faire disparaître 14 % des emplois d’ici à vingt ans, la France étant « plus exposée que la moyenne, avec 16,4 % de postes menacés et 32,8 % transformés par l’automatisation. 

    « La robotisation devrait faire disparaître 14 % des emplois… » Et de l’autre côté, l’enquête sur « le travail du clic » du sociologue Antonio A. Casilli, socle de son livre En Attendant les robots, démontre qu’à supposer qu’il n’y ait pas demain de « chômage technologique », ce serait au prix d’une immense précarisation du travail, partout dans le monde via les plateformes comme Amazon Mechanical Turk : « Toutes et tous, les centaines de millions de travailleurs à la demande et de tâcherons du clic, les milliards d’usagers des plateformes de médias sociaux, nous avons ainsi devant nous une longue carrière de dresseurs d’IA.
    Plus sérieusement...

    Sevrés de l’exigence de réflexion personnelle, assistés par une cohorte de bots destinés à leur épargner le moindre effort, accompagnés jusqu’à l’âge adulte par l’incertitude de trouver une place dans la société, où les jeunes rencontreront-ils désormais les conditions de leur épanouissement civique, professionnel et personnel ?

  13. #13
    Chroniqueur Actualités

    Homme Profil pro
    Dirigeant
    Inscrit en
    Juin 2016
    Messages
    3 160
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : Bénin

    Informations professionnelles :
    Activité : Dirigeant
    Secteur : Aéronautique - Marine - Espace - Armement

    Informations forums :
    Inscription : Juin 2016
    Messages : 3 160
    Points : 66 307
    Points
    66 307
    Par défaut Le PDG d'OpenAI appelle les États-Unis à collaborer avec la Chine pour contrer les risques liés à l'IA
    Le PDG d'OpenAI, Sam Altman, appelle les États-Unis à collaborer avec la Chine pour contrer les risques liés à l'IA
    alors que Washington tente d'entraver les progrès de la Chine en matière d'IA

    Le PDG d'OpenAI, Sam Altman, est en tournée mondiale pour convaincre les États d'adopter une réglementation sur l'IA. Il a déclaré lors d'un événement le 10 juin à Pékin que la Chine et les États-Unis devraient collaborer dans le but d'atténuer les risques liés aux systèmes d'IA. L'homme d'affaires américain est convaincu que la technologie que son entreprise développe constitue un risque existentiel pour l'humanité et milite depuis quelques années pour une norme internationale sur l'IA. Cependant, l'appel du PDG d'OpenAI intervient à un moment où les États-Unis mènent une campagne intense visant à saper et à freiner les progrès de la Chine dans le domaine de l'IA.

    Sam Altman et Geoff Hinton, un soi-disant parrain de l'IA qui a quitté Google pour être libre de parler des dangers potentiels de l'IA, ont récemment participé à une conférence en Chine portant sur les avantages de l'IA générative, mais surtout sur les risques liés au développement non réglementé de l'IA. Les deux hommes figuraient sur une liste de plus d'une douzaine de dirigeants américains et britanniques du secteur de l'IA et de chercheurs de renom de sociétés telles que le fabricant de puces Nvidia et les leaders de l'IA générative Midjourney et Anthropic. Il est important de rappeler qu'OpenAI ne propose pas ses services, y compris ChatGPT, en Chine.


    Lors de la conférence, Altman a tenté de convaincre Pékin et Washington de travailler ensemble à la mise en place d'une norme visant à encadrer le développement de l'IA. Altman s'est virtuellement exprimé lors de l'événement et a déclaré : « la Chine possède certains des meilleurs talents au monde en matière d'IA au monde, et fondamentalement, étant donné les difficultés à résoudre l'alignement des systèmes d'IA avancés, cela nécessite les meilleurs esprits du monde entier. J'espère donc que les chercheurs chinois en IA apporteront de grandes contributions ici ». L'événement a été organisé par l'Académie de l'intelligence artificielle de Pékin.

    L'ampleur et la portée de la tournée d'Altman illustrent l'influence qu'il exerce sur le débat relatif à la réglementation de l'IA. Son passage en Chine intervient dans un contexte de guerre commerciale entre Pékin et Washington, en particulier dans des domaines d'importance comme les semiconducteurs et l'IA. « Cet événement est extrêmement rare dans les conversations sur l'IA entre les États-Unis et la Chine », a déclaré Jenny Xiao, partenaire de la société de capital-risque Leonis Capital, qui effectue des recherches sur l'IA et la Chine. Xiao partage le point de vue d'Altman et estime que cela permettra d'éviter des dérives dans le développement de l'IA.

    « Il est important de réunir les principaux acteurs des États-Unis et de la Chine pour éviter des problèmes tels que la course course aux armements en matière d'IA, la concurrence entre les laboratoires et l'établissement de normes internationales », a-t-elle ajouté. Les intervenants chinois à la conférence provenaient d'universités de premier plan et d'entreprises telles que Huawei, entreprise chinoise de télécommunications inscrite sur la liste noire des États-Unis, le géant de la recherche Baidu et la société iFlytek qui commercialise des produits de reconnaissance vocale. Pour rappel, en 2019, les États-Unis ont imposé de lourdes sanctions contre iFlytek.

    Washington avait accusé iFlytek d'aider le gouvernement chinois à surveiller l'ethnie ouïghoure et d'autres minorités musulmanes de la province du Xinjiang. En octobre dernier, les États-Unis ont imposé des sanctions à la Chine pour l'empêcher d'accéder aux puces de pointe les plus populaires nécessaires au développement de l'IA. À Washington, les craintes de voir la Chine remettre en cause la domination des États-Unis ont occupé une place importante dans les discussions sur la réglementation. Selon une analyse de la Brookings Institution, la Chine produit aujourd'hui plus d'articles de recherche de haute qualité dans ce domaine que les États-Unis.


    Cependant, elle serait toujours à la traîne en ce qui concerne les "percées révolutionnaires". Dans le domaine de l'IA générative, la dernière vague de systèmes d'IA de haut niveau, la Chine serait en retard d'un à deux ans par rapport aux États-Unis et dépendrait des innovations américaines. Pékin a donné la priorité au développement de l'IA dans ses récentes déclarations politiques, tout en faisant avancer la réglementation pour s'assurer qu'elle est conforme à l'Internet chinois. Lors de sa tournée mondiale, Altman a mis l'accent sur une réglementation prudente. En fait, Altman se dit contre une réglementation trop qui freinerait le développement de l'IA.

    Lors d'une audition devant le Congrès américain en mai, Altman a mis en garde contre "le risque qu'une réglementation trop stricte ralentisse l'industrie américaine de telle sorte que la Chine ou un autre pays progresse plus rapidement que les États-Unis". Dans le même temps, il a ajouté qu'il était important de continuer à s'engager dans des dialogues mondiaux. « Cette technologie aura un impact sur les Américains et sur tout le monde, où qu'elle soit développée », a déclaré Altman. Pendant ce temps, l'UE met en place des règles strictes visant à encadrer le développement et la commercialisation des systèmes d'IA. Une chose qu'Altman dénonce.

    Le projet de règles de l'UE est considéré comme l'un des plans les plus ambitieux au monde pour créer des garde-fous qui permettraient de faire face à l'impact de la technologie sur les droits de l'homme, la santé et la sécurité, ainsi qu'au comportement monopolistique des géants de la technologie. Mais Altman a menacé de retirer OpenAI de l'UE si les législateurs ne trouvaient pas un juste milieu qui favoriserait le développement de l'IA. Le projet de règles de la Chine recoupe largement la loi européenne, mais impose des mesures de censure supplémentaires qui interdisent aux modèles d'IA générer des discours faux ou "politiquement sensibles".

    Altman a effectué une tournée mondiale pour rencontrer des dirigeants, des étudiants et des développeurs du monde entier, notamment en Inde, en Israël et dans plusieurs pays en Europe. Un jour avant son apparition virtuelle à la conférence de Pékin, il a profité d'un voyage très médiatisé en Corée du Sud pour appeler à une réglementation internationale coordonnée de l'IA générative. « À mesure que ces systèmes deviennent très, très puissants, ils doivent faire l'objet d'une attention particulière et ont un impact mondial. Cela nécessite donc une coopération mondiale », a déclaré Altman lors d'un événement à Séoul.

    Et vous ?

    Quel est votre avis sur le sujet ?

    Voir aussi

    Le PDG d'OpenAI, Sam Altman, se dit effrayé par sa propre invention, l'IA pourrait être utilisée pour diffuser largement de fausses informations, ou encore lancer une nouvelle course à l'armement

    ChatGPT : le PDG d'OpenAI menace de quitter l'Europe à cause du projet de loi AI Act qu'il estime trop strict, après avoir déclaré au Congrès US qu'il était pour une réglementation de l'IA

    Les législateurs de l'UE votent en faveur de règles plus strictes en matière d'IA et le projet entre dans sa phase finale, la réglementation prévoit de lourdes amendes en cas de manquement

  14. #14
    Expert éminent Avatar de kain_tn
    Homme Profil pro
    Inscrit en
    Mars 2005
    Messages
    1 686
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : Suisse

    Informations forums :
    Inscription : Mars 2005
    Messages : 1 686
    Points : 7 902
    Points
    7 902
    Par défaut
    Citation Envoyé par Bill Fassinou Voir le message
    Quel est votre avis sur le sujet ?
    Oui, en gros, il veut juste avoir le droit d'entrer sur le marché Chinois, quoi.

    Ah, et il ne milite pas. Au mieux, il fait du buzz pour les investisseurs/actionnaires, et au pire, il essaye de freiner ses concurrents, maintenant que sa boîte a de l'avance sur les autres.

  15. #15
    Membre extrêmement actif
    Homme Profil pro
    Ingénieur développement logiciels
    Inscrit en
    Août 2022
    Messages
    755
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Âge : 44
    Localisation : France, Hauts de Seine (Île de France)

    Informations professionnelles :
    Activité : Ingénieur développement logiciels
    Secteur : Communication - Médias

    Informations forums :
    Inscription : Août 2022
    Messages : 755
    Points : 0
    Points
    0
    Par défaut
    Il est bien naïf s'ils pensent que les chinois vont avoir un jour un éthique à propos de l'IA ...
    La seule éthique qu'ils vont avoir, c'est de trouver un moyen de mieux contrôler la population.

    Je ne suis pas contre la chine, c'est un très beau pays, mais niveau gestion humaine, c'est une véritable catastrophe, ils résolvent les problèmes en rajoutant des règles aux règles, c'est qu'il y a de pire à faire.

  16. #16
    Chroniqueur Actualités

    Homme Profil pro
    Rédacteur technique
    Inscrit en
    Juin 2023
    Messages
    906
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : Bénin

    Informations professionnelles :
    Activité : Rédacteur technique
    Secteur : High Tech - Éditeur de logiciels

    Informations forums :
    Inscription : Juin 2023
    Messages : 906
    Points : 16 136
    Points
    16 136
    Par défaut Sam Altman affirme que l'IA ne sera pas que bénéfique pour les gens et que certains perdront leurs emplois
    Le PDG d'OpenAI déclare que les partisans de l'IA se trompent s'ils pensent que la technologie ne sera que bénéfique pour les travailleurs :
    « certains emplois vont définitivement disparaître »

    Sam Altman, PDG d'OpenAI, a récemment eu l'occasion de revenir sur l'essor de son chatbot populaire ChatGPT et les impacts potentiels de l'IA générative sur l'avenir du travail. Altman a déclaré que l'essor de l'IA générative pourrait avoir des effets positifs sur la productivité de nombreux travailleurs, mais il a également ajouté que l'on ne devrait pas se bercer d'illusions et croire que l'IA ne sera que bénéfique pour les travailleurs. Selon lui, certains emplois vont définitivement disparaître. Il a expliqué que de nouveaux emplois pourraient être créés à leur place, mais tous les travailleurs déplacés n'en bénéficieront pas, ce qui pourrait déclencher des chocs économiques.

    Depuis le lancement de ChatGPT en novembre dernier et la stupéfaction suscitée par les capacités du chatbot d'IA, Sam Altman passe énormément de temps à parler de l'IA générative et de ses possibles implications pour la société. Sa position sur l'IA est quelque peu critiquée par les acteurs de l'industrie : bien qu'Altman veille à ce qu'OpenAI reste le leader dans le développement de l'IA, il déclare régulièrement que la technologie l'effraie, il appelle à l'élaboration de garde-fous solides qui encadreront le développement de l'IA sur le plan mondial et il dépeint le plus souvent un avenir dystopique de l'humanité si cette précaution n'est pas prise.

    Les systèmes d'IA générative ont un fort potentiel de transformation des industries dans le monde entier. Si ChatGPT et d'autres services similaires peuvent stimuler la productivité de nombreux employés, certains finiront par perdre leur emploi. Selon Altman, le développement de l'IA pourrait constituer le "plus formidable bond en avant" pour la qualité de vie des gens. Cela dit, il a également déclaré qu'il serait fou de ne pas avoir un peu peur de l'IA et de son potentiel à créer des problèmes de désinformation ou des chocs économiques. Par conséquent, Altman réfute l'idée selon laquelle le boom de l'IA n'aura qu'un impact positif sur les travailleurs.

    Nom : Sam-Altman-OpenAI-696x480.png
Affichages : 2366
Taille : 443,4 Ko
    Sam Altman, PDG d'OpenAI

    Dans une nouvelle interview accordée à The Atlantic, il a déclaré : « beaucoup de personnes travaillant sur l'IA prétendent qu'elle ne sera que bénéfique, qu'elle ne sera qu'un complément et que personne ne sera jamais remplacé. Les emplois vont disparaître, c'est certain ». Altman suggère que les déclarations selon lesquelles l'IA ne supprimera pas les emplois sont trop optimistes. En fait, certains experts ont exprimé leur optimisme quant au fait que l'IA n'entraînera pas le déplacement généralisé des emplois que de nombreux Américains redoutent et qu'ils devraient plutôt s'inquiéter de voir leurs collègues utiliser ces technologies pour les supplanter.

    De nombreux experts ont évoqué la manière dont l'IA pourrait constituer un assistant précieux pour les travailleurs, en les aidant à devenir plus productifs et à passer moins de temps sur des tâches ennuyeuses. « Vous ne serez pas remplacé par l'IA, mais par quelqu'un qui sait ce qu'il faut faire avec l'IA », a déclaré Oded Netzer, professeur à la Columbia Business School. Mais Altman note : « même si la plupart des emplois ne sont pas déplacés, certains sont susceptibles de disparaître ». En mars, Goldman Sachs prévoyait que 300 millions d'emplois à temps plein dans le monde pourraient être perturbés, mais pas nécessairement remplacés, par l'IA.

    Goldman Sachs affirme que les effets devraient se faire davantage sentir dans les économies avancées que dans les marchés émergents. Cela s'explique en partie par le fait que les cols blancs sont considérés comme plus exposés que les travailleurs manuels. Selon le rapport, les employés administratifs et les avocats devraient être les plus touchés, alors que les professions physiquement exigeantes ou en plein air, telles que les travaux de construction et de réparation, n'ont que peu d'effets. Aux États-Unis et en Europe, la banque d'investissement affirme qu'environ deux tiers des emplois actuels sont exposés à un certain degré d'automatisation par l'IA.

    Et jusqu'à un quart de l'ensemble du marché mondial du travail pourrait être effectué par l'IA. Selon Goldman Sachs, des changements sur les marchés du travail sont donc probables, même si, historiquement, le progrès technologique ne fait pas que rendre des emplois superflus, il en crée aussi de nouveaux. Le rapport indique que l'utilisation de la technologie de l'IA pourrait également stimuler la croissance de la productivité du travail et augmenter le PIB mondial de 7 % par an sur une période de dix ans. Début mars, Bank of America a publié un rapport selon lequel l'IA stimulera l'économie mondiale d'environ 15 700 milliards de dollars d'ici 7 ans.

    L'avis du PDG d'OpenAI est partagé par certains. « L'histoire nous apprend que la simplification n'est souvent qu'une étape vers l'automatisation. Les assistants d'IA qui analysent les appels des télévendeurs et fournissent des recommandations sont formés dans le but ultime de les remplacer », a déclaré Carl Benedikt Frey, économiste à Oxford. L'adoption généralisée de l'IA pourrait toutefois également créer de nouveaux emplois. Altman a déclaré à The Atlantic qu'il s'attendait à ce que de meilleurs emplois - peut-être mieux rémunérés - soient créés à la place de ceux qui sont perturbés. « Je ne pense pas que nous voudrons revenir en arrière », a-t-il déclaré.

    La question est toutefois de savoir si tous les travailleurs déplacés seront en mesure de s'orienter vers les nouveaux emplois qui seront créés par l'IA à l'avenir. Ethan Mollick, professeur agrégé d'entrepreneuriat et d'innovation à la Wharton School de l'université de Pennsylvanie, a cité l'automatisation des opérateurs téléphoniques à la fin du XIXe siècle - une profession alors couramment exercée par les femmes - comme un exemple de travailleurs luttant pour s'adapter à l'évolution technologique. « Lorsque l'on s'est débarrassé des opératrices, les jeunes femmes ont pu s'adapter, trouver de nouveaux emplois et s'adapter », a-t-il déclaré.

    « En revanche, les femmes plus âgées ont subi une baisse de salaire à vie et n'ont jamais pu retrouver un emploi aussi intéressant », a ajouté le professeur Mollick. Auparavant, Altman avait évoqué l'idée d'un revenu universel pour faire face aux chocs que l'IA pourrait entraîner. Selon lui, ce revenu serait versé régulièrement par le gouvernement à un niveau uniforme à chaque adulte, quel que soit son statut d’emploi, son revenu ou sa richesse, pour fournir un filet de sécurité. Il estime qu'à mesure que l'adoption de l'IA évolue, la politique fiscale telle que nous l'avons connue sera encore moins capable de lutter contre les inégalités.

    « Bien que les gens aient toujours des emplois, bon nombre de ces emplois ne créeront pas beaucoup de valeur économique dans la façon dont nous pensons à la valeur aujourd'hui », a-t-il déclaré. Il a proposé qu'à l'avenir, une fois que l'IA produirait la plupart des biens et services de base dans le monde, un fonds puisse être créé en taxant la terre et le capital plutôt que le travail. « Les dividendes de ce fonds pourraient être distribués à chaque individu pour qu'il puisse les utiliser à sa guise pour une meilleure éducation, des soins de santé, un logement, la création d'une entreprise, etc. », a écrit Altman. Mais les critiques qualifient cette vision d'utopique.

    Source : The Atlantic

    Et vous ?

    Quel est votre avis sur le sujet ?

    Voir aussi

    Le revenu de base universel nous sauvera-t-il de l'IA ? Sam Altman d'OpenAI pense qu'il sera la réponse à d'énormes pertes d'emplois, avantages et inconvénients d'un revenu garanti pour tous

    Une étude de Goldman Sachs affirme que l'IA pourrait automatiser 25 % des emplois actuels dans le monde, les économistes, les employés administratifs et les avocats devraient être les plus touchés

    Les gouvernements doivent réfléchir pour trouver des solutions aux personnes qui perdent leur emploi à cause de l'IA, estime le co-fondateur de DeepMind qui plaide pour le revenu universel

    Le PDG d'OpenAI, Sam Altman, appelle les États-Unis à collaborer avec la Chine pour contrer les risques liés à l'IA, alors que Washington tente d'entraver les progrès de la Chine en matière d'IA

  17. #17
    Expert éminent Avatar de kain_tn
    Homme Profil pro
    Inscrit en
    Mars 2005
    Messages
    1 686
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : Suisse

    Informations forums :
    Inscription : Mars 2005
    Messages : 1 686
    Points : 7 902
    Points
    7 902
    Par défaut
    Ce type rivalise avec Musk pour le titre de plus grand troll au monde?

  18. #18
    Membre expérimenté
    Homme Profil pro
    retraité
    Inscrit en
    Septembre 2014
    Messages
    627
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : France, Paris (Île de France)

    Informations professionnelles :
    Activité : retraité

    Informations forums :
    Inscription : Septembre 2014
    Messages : 627
    Points : 1 496
    Points
    1 496
    Par défaut
    Sam Altman (le pote à Alt+Ctrl+Supr) devrait alors arrêter OpenAI...

  19. #19
    Communiqués de presse

    Femme Profil pro
    Traductrice Technique
    Inscrit en
    Juin 2023
    Messages
    1 637
    Détails du profil
    Informations personnelles :
    Sexe : Femme
    Localisation : France

    Informations professionnelles :
    Activité : Traductrice Technique

    Informations forums :
    Inscription : Juin 2023
    Messages : 1 637
    Points : 114 362
    Points
    114 362
    Par défaut Le PDG d'OpenAI estime qu'il est possible de se tromper dans la réglementation
    Le PDG d'OpenAI estime qu'il est possible de se tromper dans la réglementation, mais qu'il ne faut pas la craindre, la réglementation n'a pas été un bien absolu, mais elle a été bénéfique, ajoute-t-il.

    De nombreux pays envisagent de réglementer l'IA, et la Grande-Bretagne accueillera en novembre un sommet mondial sur la sécurité de l'IA, axé sur la compréhension des risques posés par cette technologie d'avant-garde et sur la manière dont les cadres nationaux et internationaux pourraient être soutenus. Le PDG d'OpenAI, développeur de ChatGPT, a déclaré lundi qu'il était possible de se tromper dans la réglementation, mais que celle-ci était importante et qu'il ne fallait pas la craindre, alors que les progrès rapides de l'intelligence artificielle (IA) suscitent des inquiétudes dans le monde entier.

    Sam Altman, PDG et visage public de la startup OpenAI, soutenue par Microsoft, a déclaré lors d'une visite à Taipei qu'il n'était pas très inquiet d'une surréglementation gouvernementale, mais que cela pouvait arriver.

    "Je m'inquiète également de la sous-réglementation. Dans notre secteur, les gens critiquent beaucoup la réglementation. Nous demandons une réglementation, mais uniquement pour les systèmes les plus puissants", a-t-il déclaré. "Les modèles qui sont 10 000 fois plus puissants que le GPT4, les modèles qui sont aussi intelligents que la civilisation humaine, etc., méritent probablement d'être réglementés", a ajouté M. Altman, qui s'exprimait lors d'un événement sur l'IA organisé par la fondation caritative de Terry Gou, le fondateur du principal fournisseur d'Apple, Foxconn.

    M. Altman a déclaré que dans l'industrie technologique, il existe un "réflexe anti-réglementation". "La réglementation n'a pas été un bien absolu, mais elle a été bénéfique à bien des égards. Je ne veux pas avoir à me faire une opinion sur la sécurité d'un avion à chaque fois que j'y monte, mais j'ai confiance en leur sécurité et je pense que la réglementation a eu un effet positif dans ce domaine", a-t-il déclaré. "Il est possible de se tromper dans la réglementation, mais je ne pense pas que nous restions assis à la craindre. En fait, nous pensons qu'une certaine forme de réglementation est importante."


    Source : Sam Altman, PDG d'OpenAI

    Et vous ?

    Pensez-vous que l'avis du PDG d'OpenAI est crédible ou pertinent ?
    Quel est votre avis sur le sujet ?

    Voir aussi :

    Le PDG d'OpenAI, Sam Altman, déclare au Congrès américain qu'il craint que l'IA ne soit "nuisible" au monde, il ajoute qu'une réglementation de l'IA est urgente afin d'éviter une catastrophe

    OpenAI aurait fait pression sur l'Union européenne pour qu'elle édulcore sa réglementation sur l'IA, et aurait réussi à faire passer ses intérêts financiers au détriment de l'intérêt général

    « Le développement de l'IA sans réglementation induit une menace existentielle pour l'humanité », d'après Elon Musk dont une société développe des puces à insérer dans le cerveau pour contrer l'IA

  20. #20
    Chroniqueur Actualités

    Homme Profil pro
    Rédacteur technique
    Inscrit en
    Juin 2023
    Messages
    906
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : Bénin

    Informations professionnelles :
    Activité : Rédacteur technique
    Secteur : High Tech - Éditeur de logiciels

    Informations forums :
    Inscription : Juin 2023
    Messages : 906
    Points : 16 136
    Points
    16 136
    Par défaut Sam Altman, PDG d'OpenAI, affirme que ChatGPT aurait pu être considéré comme une AGI il y a 10 ans
    Sam Altman, PDG d'OpenAI, affirme que ChatGPT aurait pu être considéré comme une intelligence générale artificielle il y a 10 ans
    il a laissé entendre que le chatbot est victime de l'effet IA

    Sam Altman, PDG d'OpenAI, estime que ChatGPT contient les prémices d'une intelligence générale artificielle (artificial general intelligence - AGI). Il est persuadé que beaucoup de personnes auraient considéré ChatGPT comme une AGI si l'outil d'IA leur avait été présenté dix ans auparavant. ChatGPT serait victime de ce que l'on appelle "effet IA", ce qui pousse les gens à le considérer comme un simple agent conversationnel. Il ajoute aussi que les gens ont du mal à considérer ChatGPT comme une AGI en raison de l'absence d'un consensus sur la définition de l'intelligence. Pour lui, lorsque cela arrivera, ChatGPT répondra d'une manière d'une autre à cette définition.

    « Aujourd'hui, les gens se disent qu'il s'agit d'un gentil petit chatbot ou autre », a déclaré Altman. L'entrepreneur regrette le fait que les gens banalisent le potentiel de sa technologie en le réduisant à un simple agent conversationnel. Il est convaincu que si l'on avait montré cette même technologie aux gens dix ans plutôt, ces derniers auraient été stupéfaits et auraient déclaré sans hésiter qu'il s'agit d'une AGI. Certains partagent l'avis d'Altman et prennent pour exemple la frénésie que ChatGPT a suscitée dès sa publication. « Les gens pensaient que c'était la dernière étape avant une AGI. Après la prise en main, ils ont changé d'avis », a écrit un critique.

    Altman estime que ce comportement peut être expliqué par deux choses : l'effet IA et l'absence de consensus sur la définition de l'intelligence. Dans le domaine de l'IA, l'expression "effet IA" décrit un phénomène selon lequel une fois qu'une tâche ou une capacité est automatisée ou accomplie avec succès à l'aide de l'IA, elle n'est plus considérée comme faisant partie de la "véritable" IA. En d'autres termes, dès qu'un système d'IA devient compétent pour une tâche spécifique, les gens ont tendance à ne plus le considérer comme de l'IA et à le percevoir comme une simple opération de routine ou régulière. Ainsi, l'on pense que chaque succès de l'IA la redéfinit.


    Selon la définition la plus populaire, l'AGI est une forme d'intelligence artificielle dans laquelle une machine peut apprendre et penser comme un humain. Pour que cela soit possible, l'AGI devrait avoir une conscience de soi et une conscience tout court, afin de pouvoir résoudre des problèmes, s'adapter à son environnement et effectuer un plus large éventail de tâches. Selon certains experts en IA, il est peu probable que les gens se rendent compte qu'ils interagissent avec une AGI. D'autres estiment que nous serons en présence d'une AGI lorsque la machine aura une cognition de niveau humain. En réalité, la notion même de l'AGI fait l'objet de polémiques.

    « Nous ne pourrons jamais dire ce qu'est réellement l'AGI si nous continuons à repousser les limites. La technologie peut toujours être améliorée. Qu'est-ce que nous devrions collectivement reconnaître comme étant une AGI, un comportement ou une sensibilité de niveau humain ? Ou bien des connaissances générales sur un large éventail de sujets ? Je dirais que la plus grande mise en garde concernant l'AGI est de savoir si elle peut apprendre et transférer des connaissances par elle-même, ce qui semble être quelque chose que nous pouvons évaluer sans changer ce à quoi elle ressemble en fonction des progrès technologiques », a écrit un critique.

    Cet effet est perceptible tout au long de l'histoire du développement de l'IA. Par exemple, lorsque le programme de jeu d'échecs Deep Blue a vaincu le grand maître des échecs Garry Kasparov en 1997, cette victoire a été saluée comme une réalisation importante de l'IA. Cependant, après cette victoire, les programmes d'IA jouant aux échecs sont désormais communément considérés comme des algorithmes conventionnels plutôt que comme une IA révolutionnaire. L'effet IA est dû au fait que la communauté (experts, etc.) a tendance à ajuster ses attentes en matière d'IA à mesure que la technologie progresse et que certaines tâches deviennent courantes.

    Certains experts en IA ont fini par résumé l'effet IA en ces termes : « l'IA est tout ce qui n'a pas encore été fait ». L'effet IA montre à quel point il est difficile de définir l'intelligence et comment le terme est utilisé différemment selon les contextes, comme le comportement ou la cognition. Bien que le PDG d'OpenAI ait fait la remarque et qu'il aurait probablement préféré que les gens acceptent que ChatGPT est une AGI ou est tout au moins quelque chose qui s'en rapproche, il ne considère pas l'effet IA comme un problème. « Je pense que c'est une bonne chose que les règles du jeu changent constamment. Cela nous pousse à travailler plus dur », a-t-il déclaré.

    Il a ajouté : « la technologie [ChatGPT] approche toutefois un stade qui est au moins assez proche de la compréhension de l'AGI par OpenAI pour qu'une définition soit adoptée au cours de la prochaine décennie, si ce n'est plus tôt ». Altman laisse entendre qu'OpenAI travaille sur sa propre définition de l'AGI et pourrait donc l'imposer à la communauté dans les années à venir. Pour rappel, lors de ces récentes sorties, Altman a déclaré que l'on atteindra l'AGI d'ici à une décennie. Ce qui correspond au calendrier qu'il fixe pour l'adoption d'une définition de l'AGI. Selon les critiques, OpenAI cherche en effet à être celui qui dicte les règles dans le domaine de l'IA.

    À ce propos, certains rapports ont récemment fait état de tensions entre OpenAI et Microsoft, son principal investisseur. Les tensions seraient liées à des divergences de vues sur la sécurité de l'IA et au fait que les deux entreprises se battent pour les mêmes clients avec des produits similaires. Le partenariat entre OpenAI et Microsoft est ambigu, mais en commentant les rumeurs sur les tensions, Altman a déclaré que Microsoft et OpenAI ont un objectif commun et ne sont pas des ennemis : « oui, je ne prétendrai pas que c'est une relation parfaite, mais nous sommes loin de la catégorie des ennemis. C'est une très bonne relation. Nous avons aussi nos querelles ».

    Altman a déclaré que les deux entreprises sont alignées sur l'objectif de faire en sorte que les modèles d'OpenAI soient utilisés autant que possible. Par ailleurs, le PDG d'OpenAI a abordé les problèmes liés aux données d'entraînement de l'IA, notamment le problème de droit d'auteur. Altman a déclaré qu'il est important d'élaborer de nouvelles normes pour les données d'entraînement de l'IA et que les futurs systèmes IA utilisent les données avec le consentement des personnes. « Il pourrait s'agir d'une nouvelle façon d'aborder certaines questions relatives à la propriété des données et au fonctionnement des flux économiques », a déclaré l'entrepreneur.

    Mais Altman n'est pas tout à fait disposé à payer pour avoir accès à ces données. Il a déclaré que les parties prenantes peuvent fournir des données volontaires si elles comprennent mieux "les avantages sociétaux globaux de l'IA. En gros, OpenAI fabrique et vend des systèmes d'IA aux consommateurs, mais appelle les auteurs, les artistes, les chercheurs, etc. à autoriser gratuitement l'accès à leurs travaux au nom de la cause commune. Mais sa proposition est controversée. « OpenAI a renoncé à son statut d'organisation à but non lucratif, mais dit agir pour le bien de l'humanité et veut désormais qu'on lui offre tout gratuitement », a écrit un critique.

    OpenAI et d'autres entreprises spécialisées dans l'IA font actuellement l'objet de poursuites judiciaires pour violation des droits d'auteur en raison de l'utilisation de données propriétaires dans la formation de leurs systèmes d'IA. Selon Altman, les modèles d'IA pourraient avoir besoin de moins de données d'entraînement à mesure qu'ils deviennent plus intelligents et plus performants, ce qui ferait passer l'attention de la quantité à la valeur des données d'entraînement.

    « Ce qui comptera vraiment à l'avenir, ce sont les données particulièrement précieuses », a-t-il déclaré. Altman voit la "preuve existentielle" de cette thèse dans la manière dont les humains apprennent par rapport aux machines. Les humains ont besoin de moins de données pour apprendre, car ils sont plus aptes à comprendre des concepts plus larges. OpenAI pense que cela pourrait également résoudre le problème de l'hallucination des chatbots d'IA.

    Et vous ?

    Quel est votre avis sur le sujet ?
    Que pensez-vous de ce que les experts en IA appellent "effet IA" ? Ce phénomène est-il réel ?
    Auriez-vous considéré ChatGPT comme une AGI s'il vous avait été présenté il y a dix ans ?
    L'effet IA est-il la raison pour laquelle les entreprises d'IA peinent à atteindre une forme d'AGI ?
    L'absence de consensus sur la définition de l'IA nuit-elle à l'innovation dans le domaine ou la favorise-t-elle ?
    Selon vous, OpenAI tente-t-il d'imposer une définition de l'AGI ? Quels seraient les impacts sur le secteur ?
    Selon vous, comment peut-on définir l'IA ? Que peut-on considérer actuellement comme étant une IA ?
    Les gens devraient-ils accorder gratuitement l'accès à leurs œuvres/travaux pour l'entraînement de l'IA ?

    Voir aussi

    Comment saurons-nous que nous avons atteint une forme d'intelligence générale artificielle ? Pour certains experts en IA, ce sera lorsque la machine aura une cognition de niveau humain

    Microsoft prétend que GPT-4 montre des « étincelles » d'intelligence artificielle générale : « nous pensons que l'intelligence de GPT-4 signale un véritable changement de paradigme »

    « L'atteinte d'une forme d'intelligence artificielle de niveau humain (AGI) est possible dans une décennie », d'après le PDG de Google Deepmind pour le développement responsable des systèmes d'IA

Discussions similaires

  1. Réponses: 115
    Dernier message: 25/10/2024, 02h01
  2. Réponses: 0
    Dernier message: 07/06/2023, 19h01
  3. Réponses: 0
    Dernier message: 17/05/2023, 13h24
  4. Réponses: 3
    Dernier message: 03/02/2023, 08h55
  5. Réponses: 0
    Dernier message: 24/01/2017, 21h20

Partager

Partager
  • Envoyer la discussion sur Viadeo
  • Envoyer la discussion sur Twitter
  • Envoyer la discussion sur Google
  • Envoyer la discussion sur Facebook
  • Envoyer la discussion sur Digg
  • Envoyer la discussion sur Delicious
  • Envoyer la discussion sur MySpace
  • Envoyer la discussion sur Yahoo