IdentifiantMot de passe
Loading...
Mot de passe oublié ?Je m'inscris ! (gratuit)
Navigation

Inscrivez-vous gratuitement
pour pouvoir participer, suivre les réponses en temps réel, voter pour les messages, poser vos propres questions et recevoir la newsletter

  1. #81
    Communiqués de presse

    Femme Profil pro
    Traductrice Technique
    Inscrit en
    Juin 2023
    Messages
    1 204
    Détails du profil
    Informations personnelles :
    Sexe : Femme
    Localisation : France

    Informations professionnelles :
    Activité : Traductrice Technique

    Informations forums :
    Inscription : Juin 2023
    Messages : 1 204
    Points : 84 235
    Points
    84 235
    Par défaut Sam Altman estime que GPT continuera à s'améliorer pendant au moins les trois ou quatre prochaines générations
    Sam Altman estime que GPT continuera à s'améliorer pendant au moins les trois ou quatre prochaines générations de modèles : "Nous sommes très loin du moment où nous commencerons à nous stabiliser."

    Sam Altman estime que GPT continuera à s'améliorer et qu'on est très loin de la fin de l'évolution de l'IA.

    Sam Altman, de son vrai nom "Samuel Harris Altman", est un entrepreneur et investisseur américain surtout connu comme PDG d'OpenAI depuis 2019 (il a été brièvement licencié et réintégré en novembre 2023). Il est considéré comme l'une des figures de proue du boom de l'IA.

    Sam Altman estime que GPT continuera à s'améliorer pendant au moins les trois ou quatre prochaines générations de modèles. Selon sa déclaration, on serait très loin du moment où l'IA commencera à se stabiliser.

    Nous sommes très loin du moment où nous commencerons à nous stabiliser. Nous n'y pensons pas pour l'instant. Je pense que pour les trois ou quatre prochaines générations de modèles, nous pouvons faire beaucoup mieux à chaque fois. Nous devrions nous concentrer sur ce point et si nous y parvenons, tout le reste s'arrangera.

    Je pense que notre créneau, ou quoi que ce soit d'autre, est de fournir des capacités cognitives formidables, utiles, impressionnantes, aussi abondantes et peu coûteuses que possible, et il y a d'autres bonnes choses que nous pouvons faire. Mais si nous pouvons nous concentrer sur cela, je pense que ce sera un grand service pour le monde et que nous pourrons continuer ainsi pendant un certain temps.
    Et vous ?

    Pensez-vous que cette déclaration est crédible ou pertinente ?
    Quel est votre avis sur le sujet ?

    Voir aussi :

    GPT-5 pourrait arriver cet été en tant que MAJ « nettement améliorée » de ChatGPT. Les réactions divergentes soulignent les limites des MAJ précédentes et la nécessité d'une évaluation critique

    Sam Altman : « je me fiche de savoir si nous dépensons 50 milliards de dollars par an, nous construisons l'AGI et cela en vaudra la peine ». Ce montant dépasse largement le PIB de certains pays

    Découvrez Sam Altman, PDG d'OpenAI, qui a appris à programmer à l'âge de 8 ans et qui se prépare également à l'apocalypse avec une réserve d'or, des armes et des masques à gaz
    Publication de communiqués de presse en informatique. Contribuez au club : corrections, suggestions, critiques, ... Contactez le service news et Rédigez des actualités

  2. #82
    Membre averti
    Homme Profil pro
    autre
    Inscrit en
    Juin 2014
    Messages
    122
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : France, Aveyron (Midi Pyrénées)

    Informations professionnelles :
    Activité : autre

    Informations forums :
    Inscription : Juin 2014
    Messages : 122
    Points : 449
    Points
    449
    Par défaut
    Mais M. Lightcap estime qu'une IA plus avancée pourrait au moins jouer le rôle d'un « comédien de stand-up », ce qui, selon le dirigeant d'OpenAI, pourrait être possible.
    Pour l'instant c'est plus lui que son IA qui me fait rire .
    Ils vont tellement loin dans leurs déclarations absurdes qu'on dirait presque des interviews du gorafi.

    https://southpark.fandom.com/fr/wiki/Funnybot

  3. #83
    Chroniqueur Actualités

    Homme Profil pro
    Administrateur de base de données
    Inscrit en
    Mars 2013
    Messages
    8 667
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : Canada

    Informations professionnelles :
    Activité : Administrateur de base de données

    Informations forums :
    Inscription : Mars 2013
    Messages : 8 667
    Points : 201 869
    Points
    201 869
    Par défaut OpenAI a commencé la formation d'un nouveau modèle d'IA qui va succéder à GPT-4
    OpenAI a commencé la formation d'un nouveau modèle d'IA qui va succéder à GPT-4 :
    « nous prévoyons que les systèmes qui en résulteront nous amèneront au niveau suivant de capacités sur la voie de l'IAG »

    OpenAI a déclaré mardi qu'elle avait commencé à former un nouveau modèle phare d'intelligence artificielle qui succéderait à la technologie GPT-4 qui alimente son populaire chatbot en ligne, ChatGPT. Ce nouveau modèle, encore en phase d’entraînement, promet d’être plus puissant, plus précis et plus polyvalent que jamais.

    La start-up de San Francisco, qui est l'une des principales entreprises d'intelligence artificielle au monde, a déclaré dans un billet de blog qu'elle s'attendait à ce que le nouveau modèle apporte « le prochain niveau de capacités » dans le cadre de ses efforts pour construire une « intelligence générale artificielle », ou IAG, une machine capable de faire tout ce que le cerveau humain est capable de faire. Le nouveau modèle serait un moteur pour les produits d'IA, notamment les chatbots, les assistants numériques semblables à Siri d'Apple, les moteurs de recherche et les générateurs d'images.

    OpenAI vise à faire progresser la technologie de l'intelligence artificielle plus rapidement que ses rivaux, tout en apaisant les critiques qui affirment que cette technologie devient de plus en plus dangereuse, contribuant à diffuser de la désinformation, à remplacer des emplois et même à menacer l'humanité. Les experts ne s'accordent pas sur la date à laquelle les entreprises technologiques atteindront l'intelligence artificielle générale, mais des sociétés comme OpenAI, Google, Meta et Microsoft ont régulièrement augmenté la puissance des technologies d'intelligence artificielle depuis plus d'une décennie, faisant un bond en avant tous les deux ou trois ans environ.

    Le GPT-4 d'OpenAI, publié en mars 2023, permet aux chatbots et à d'autres applications logicielles de répondre à des questions, de rédiger des courriels, de générer des mémoires et d'analyser des données. Une version actualisée de la technologie, qui a été dévoilée ce mois-ci et n'est pas encore disponible à grande échelle, peut également générer des images et répondre à des questions et à des commandes d'une voix très conversationnelle.

    Quelques jours après la présentation par OpenAI de la version actualisée, appelée GPT-4o, l'actrice Scarlett Johansson a déclaré qu'elle utilisait une voix « étrangement similaire à la mienne ». Elle a déclaré qu'elle avait refusé les efforts du directeur général d'OpenAI, Sam Altman, pour obtenir une licence d'utilisation de sa voix pour le produit et qu'elle avait engagé un avocat pour demander à OpenAI de cesser d'utiliser cette voix. L'entreprise a déclaré que la voix n'était pas celle de Johansson.

    Les technologies telles que GPT-4o acquièrent leurs compétences en analysant de vastes quantités de données numériques, notamment des sons, des photos, des vidéos, des articles de Wikipédia, des livres et des articles d'actualité. En décembre, le New York Times a intenté un procès à OpenAI et à Microsoft, arguant d'une violation des droits d'auteur sur les contenus d'information liés aux systèmes d'IA.

    La « formation » numérique des modèles d'IA peut prendre des mois, voire des années. Une fois la formation terminée, les entreprises d'I.A. consacrent généralement plusieurs mois supplémentaires à tester la technologie et à la peaufiner en vue d'une utilisation publique.
    Cela pourrait signifier que le prochain modèle d'OpenAI n'arrivera pas avant neuf mois ou un an, voire plus.

    Nom : open.png
Affichages : 17993
Taille : 347,8 Ko

    OpenAI a déclaré avoir créé un nouveau comité chargé d'évaluer les risques posés par la nouvelle technologie

    Ce comité sera dirigé conjointement par le PDG et cofondateur Sam Altman, ainsi que par trois membres du conseil d'administration de l'entreprise : le président Bret Taylor, Adam D'Angelo et Nicole Seligman.

    Six experts techniques et politiques de l'OpenAI - Aleksander Madry (responsable de la préparation), Lilian Weng (responsable des systèmes de sécurité), John Schulman (responsable de la science de l'alignement), Matt Knight (responsable de la sécurité) et Jakub Pachocki (scientifique en chef) - feront également partie du comité et l'entreprise a déclaré qu'elle « retiendra et consultera d'autres experts en matière de sûreté, de sécurité et de technologie » pour soutenir le travail.

    La première tâche du comité consistera à examiner et à développer les processus et les garanties de l'entreprise au cours des 90 prochains jours, après quoi il fera part de ses recommandations à l'ensemble du conseil d'administration.

    Alors qu'OpenAI forme son nouveau modèle, son nouveau comité de sûreté et de sécurité s'efforcera d'affiner les politiques et les processus de protection de la technologie, a indiqué l'entreprise.

    Au début du mois, OpenAI a annoncé qu'Ilya Sutskever, cofondateur et l'un des responsables de ses efforts en matière de sécurité, quittait l'entreprise. Ce départ a suscité des inquiétudes quant au fait qu'OpenAI ne s'attaquait pas suffisamment aux dangers posés par l'IA.

    En novembre, le Dr Sutskever s'est joint à trois autres membres du conseil d'administration pour écarter Altman d'OpenAI, estimant qu'on ne pouvait plus lui faire confiance dans le cadre du projet de l'entreprise visant à créer une intelligence artificielle générale pour le bien de l'humanité. Après une campagne de lobbying menée par les alliés d'Altman, ce dernier a été rétabli dans ses fonctions cinq jours plus tard et a depuis réaffirmé son contrôle sur l'entreprise.

    Sutskever a dirigé ce que l'OpenAI a appelé son équipe « Superalignment », qui a étudié les moyens de garantir que les futurs modèles d'IA ne soient pas nuisibles. Comme d'autres dans ce domaine, il était de plus en plus préoccupé par le fait que l'I.A. représentait une menace pour l'humanité.

    Jan Leike, qui dirigeait l'équipe Superalignment avec le Dr Sutskever, a démissionné de l'entreprise ce mois-ci, laissant planer le doute sur l'avenir de l'équipe.

    OpenAI a intégré ses recherches sur la sécurité à long terme dans ses efforts plus vastes visant à garantir la sécurité de ses technologies. Ces travaux seront dirigés par John Schulman, un autre cofondateur, qui dirigeait auparavant l'équipe à l'origine de ChatGPT. Le nouveau comité de sécurité supervisera les recherches de Schulman et fournira des conseils sur la manière dont l'entreprise abordera les risques technologiques.

    Nom : openai.png
Affichages : 5432
Taille : 194,7 Ko

    Le développement de GPT-5 ?

    L'entreprise n'a pas explicitement déclaré qu'il s'agissait du nom du modèle qu'elle forme actuellement. Jusqu'à présent, OpenAI a suivi une séquence de dénomination claire pour ses modèles fondamentaux sous la forme de variations numériquement croissantes de GPT. Son dernier modèle fondateur, qui alimente notamment ChatGPT, est GPT-4, de sorte que son prochain modèle phare devrait prendre la forme de GPT-5. On s'attend à ce qu'OpenAI publie une mise à jour majeure sous la forme de GPT-5 dans les mois à venir, en particulier face à la concurrence de plus en plus intense de modèles rivaux tels que le Llama 3 de Meta, le Gemini de Google et le Claude 3 d'Anthropic.

    Bien qu'elle soit « fière de construire et de diffuser des modèles qui sont à la pointe de l'industrie en termes de capacités et de sécurité », OpenAI a déclaré qu'elle souhaitait « un débat solide à ce moment important ».

    OpenAI n'a pas indiqué quand ce modèle serait publié. La formation des systèmes d'IA peut prendre des mois, voire des années. L'entreprise a récemment publié une mise à jour de GPT-4, le GPT-4o, pour alimenter son produit phare, ChatGPT, et introduire de nouvelles fonctionnalités telles que le mode vocal, qui lui permettra d'agir en tant qu'assistant numérique comme Alexa d'Amazon ou Siri d'Apple. L'entreprise a déjà été critiquée pour avoir utilisé une voix ressemblant à celle de l'actrice Scarlett Johansson pour l'un de ses assistants virtuels.

    Plusieurs zones d'ombre

    Bien qu'elle semble transparente à première vue, il y a beaucoup d'ambiguïté quant à la volonté d'OpenAI de partager ce que dit son nouveau comité. OpenAI a déclaré qu'elle « partagera publiquement une mise à jour des recommandations adoptées d'une manière compatible avec la sûreté et la sécurité » une fois que le comité aura présenté son rapport au conseil d'administration, mais elle n'a pas précisé quand elle le ferait après la période initiale de 90 jours.

    La formulation de l'entreprise est également limitée au partage des recommandations qu'elle choisit d'adopter et il n'est pas clair si l'entreprise partagera le rapport complet ou les recommandations du comité, en particulier s'ils sont en contradiction avec ce qu'elle décide de mettre en œuvre ou non.

    L'entreprise et le comité sont susceptibles de faire l'objet d'un examen minutieux de la part de la communauté de la sécurité de l'IA, notamment en raison de l'engagement déclaré d'OpenAI en faveur de la sécurité, de la division entre les directeurs concernant son approche de la sécurité et des critiques récentes remettant en cause l'engagement d'anciens membres du personnel, ainsi que du départ de plusieurs responsables clés de la sécurité au sein de l'entreprise.

    Source : OpenAI

    Et vous ?

    Quelles applications concrètes voyez-vous pour ce nouveau modèle d’IA ?
    Quels sont les avantages et les inconvénients potentiels de l’automatisation accrue grâce à l’IA ? Quelles implications voyez-vous notamment sur l’emploi, la productivité et la qualité de vie ?
    Comment pouvons-nous garantir que l’IA est utilisée de manière éthique et responsable ? Partagez vos idées sur la régulation, la transparence et la surveillance de l’IA.
    Quelles sont vos préoccupations concernant la sécurité et la confidentialité des données dans un monde où l’IA est omniprésente ? Cela peut inclure des discussions sur la vie privée, la surveillance et la protection des informations sensibles.
    Pensez-vous que l’IA pourrait révolutionner le travail à distance et le mode de vie des nomades numériques ? Explorez l’impact potentiel de l’IA sur la mobilité professionnelle et la flexibilité du travail.
    Contribuez au club : Corrections, suggestions, critiques, ... : Contactez le service news et Rédigez des actualités

  4. #84
    Chroniqueur Actualités
    Avatar de Patrick Ruiz
    Homme Profil pro
    Redacteur web
    Inscrit en
    Février 2017
    Messages
    1 989
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : Cameroun

    Informations professionnelles :
    Activité : Redacteur web
    Secteur : Communication - Médias

    Informations forums :
    Inscription : Février 2017
    Messages : 1 989
    Points : 54 669
    Points
    54 669
    Par défaut Un ancien membre du conseil d'administration d'OpenAI révèle les raisons de la brève éviction de Sam Altman
    Un ancien membre du conseil d'administration d'OpenAI révèle ce qui a conduit à la brève éviction de Sam Altman :
    Mensonge sur son lien avec le fonds de capital-risque OpenAI Startup Fund, manipulations, etc.

    Le 17 novembre 2023, le conseil d'administration d'OpenAI a choqué tout le monde en évinçant de façon soudaine le cofondateur et PDG Sam Altman. Il avait supervisé l'un des lancements d'application à la croissance la plus rapide de l'histoire avec ChatGPT. Quelle pouvait donc être la raison de cette éviction soudaine ? Helen Toner dévoile certaines raisons parmi lesquelles figurent le mensonge sur son lien avec le fonds de capital-risque Startup Fund.

    Selon Mme Toner, l'une des raisons pour lesquelles le conseil d'administration a cessé de faire confiance à M. Altman est qu'il ne lui a pas dit qu'il était propriétaire du fonds de démarrage OpenAI ; une autre raison est qu'il a donné des informations inexactes sur les processus de sécurité de l'entreprise « à de multiples occasions ». En outre, Mme Toner affirme avoir été personnellement visée par le PDG après avoir publié un document de recherche qui l'avait irrité. « Sam a commencé à mentir aux autres membres du conseil d'administration pour tenter de m'évincer du conseil », explique-t-elle.

    Après que deux cadres ont parlé directement au conseil d'administration de leurs propres expériences avec Altman, décrivant une atmosphère toxique à OpenAI, l'accusant d’ « abus psychologique » et fournissant des preuves qu'Altman « mentait et était manipulateur dans différentes situations », le conseil d'administration a finalement décidé de passer à l'action.

    Toner cite le lancement de ChatGPT lui-même comme un exemple de l'absence de contrôle réel du conseil d'administration sur la société. « Lorsque ChatGPT a été lancé en novembre 2022, le conseil d'administration n'a pas été informé à l'avance. Nous avons appris l'existence de ChatGPT sur Twitter », explique Toner.

    Des révélations cohérentes avec celle de journalistes sur les mensonges et manipulations de Sam Altman sur plusieurs aspects

    Le rapport y relatif fait état de ce que la raison pour laquelle la relation entre le conseil d'administration et Altman s'était détériorée n'était pas parce que le conseil se dirigeait trop vite vers l'intelligence artificielle générale, mais qu'il avait tenté d'exclure un membre du conseil d'administration, Helen Toner, et que cela s'était retourné contre lui.

    Ci-dessous un extrait de la publication du média (l'emphase est notre) :

    Certains membres du conseil d’administration d’OpenAI avaient trouvé en Altman un opérateur incroyablement glissant. Par exemple, plus tôt cet automne, il avait confronté un membre, Helen Toner, directrice du Centre pour la sécurité et les technologies émergentes de l'Université de Georgetown, pour avoir co-écrit un article qui apparemment critiquait OpenAI pour « attiser les flammes du battage médiatique sur l'IA ». Toner s'était défendue (même si elle s'est ensuite excusée auprès du conseil d'administration de ne pas avoir prévu comment le journal pourrait être perçu). Altman a commencé à contacter individuellement d'autres membres du conseil d'administration pour la remplacer. Lorsque ces membres ont comparé leurs notes sur les conversations, certains ont estimé qu’Altman les avait présentés à tort comme soutenant le retrait de Toner. « Il les montait les uns contre les autres en mentant sur ce que pensaient les autres », m’a dit la personne familière avec les discussions du conseil d’administration. « Des choses comme ça se produisaient depuis des années ». (Une personne proche du point de vue d’Altman a déclaré qu’il reconnaissait avoir été « brutal dans la manière dont il avait tenté de faire destituer un membre du conseil d’administration », mais qu’il n’avait pas tenté de manipuler le conseil d’administration.)

    Altman était connu comme un combattant d’entreprise avisé. Cela avait bien servi OpenAI dans le passé : en 2018, il avait bloqué une offre impulsive d’Elon Musk, l’un des premiers membres du conseil d’administration, de reprendre l’organisation. La capacité d’Altman à contrôler l’information et à manipuler les perceptions – ouvertement et secrètement – avait incité les investisseurs en capital-risque à se faire concurrence en investissant dans diverses startups. Ses compétences tactiques étaient tellement redoutées que, lorsque quatre membres du conseil d’administration – Toner, D’Angelo, Sutskever et Tasha McCauley – ont commencé à discuter de son renvoi, ils étaient déterminés à garantir qu’il serait pris par surprise. « Il était clair que, dès que Sam le saurait, il ferait tout ce qu'il pouvait pour saper le conseil d'administration », a déclaré la personne proche de ces discussions.

    Les membres mécontents du conseil d’administration ont estimé que la mission d’OpenAI les obligeait à être vigilants à l’égard de l’IA et ils pensaient qu’ils ne pourraient pas accomplir cette tâche avec Altman en place. « La mission est multiforme : garantir que l’A.I. profite à toute l’humanité, mais personne ne peut le faire s’il ne peut pas détenir le PDG responsable », a déclaré une autre personne au courant de la réflexion du conseil d’administration.

    Altman voyait les choses différemment. La personne familière avec son point de vue a déclaré que lui et le conseil d’administration s’étaient engagés dans « un débat de conseil d’administration tout à fait normal et sain », mais que certains membres du conseil d’administration n’étaient pas familiarisés avec les normes commerciales et étaient intimidés par leurs responsabilités. Cette personne a noté : « À chaque pas que nous nous rapprochons de l’A.G.I., tout le monde prend environ dix points de folie. »

    Il est difficile de dire si les membres du conseil d’administration étaient plus terrifiés par les ordinateurs sensibles ou par le fait qu’Altman devienne un voyou. En tout cas, ils ont décidé de devenir eux-mêmes des voyous. Et ils ont ciblé Altman avec la foi erronée que Microsoft adhérerait à leur soulèvement.


    C’est pour ces raisons qu’OpenAI vient de retirer à Sam Altman sa qualité de propriétaire de son fonds de capital-risque Startup Fund

    OpenAI a modifié la structure de gouvernance de son fonds de capital-risque qui soutient les startups dans le domaine de l'IA, de sorte que son directeur général Sam Altman ne possède ni ne contrôle plus le fonds, selon un document déposé auprès de la Securities and Exchange Commission (SEC) des États-Unis.

    Le changement, documenté dans le dépôt du 29 mars, est intervenu après que la propriété d'Altman sur OpenAI Startup Fund ait suscité des froncements de sourcils en raison de sa structure inhabituelle - tout en étant commercialisé comme une société de capital-risque, le fonds a été levé par Altman auprès de partenaires limités extérieurs et c'est lui qui a pris les décisions d'investissement. OpenAI a déclaré qu'Altman n'avait pas d'intérêt financier dans le fonds malgré sa participation.


    Dans un communiqué, un porte-parole d'OpenAI a déclaré que la structure initiale du fonds en tant que General Partner (GP) était un arrangement temporaire, et que "ce changement apporte plus de clarté".

    L'OpenAI Startup Fund investit 175 millions de dollars collectés auprès de partenaires d'OpenAI tels que Microsoft, bien qu'OpenAI elle-même ne soit pas un investisseur.

    Le contrôle du fonds a été transféré à Ian Hathaway, un partenaire du fonds depuis 2021, selon la déclaration. Altman ne sera donc plus un General Partner du fonds.

    OpenAI a déclaré que M. Hathaway avait supervisé le programme d'accélération du fonds et dirigé les investissements dans des entreprises telles que Harvey, Cursor et Ambience Healthcare.

    Altman, ancien président de l'accélérateur de startups Y Combinator, a déjà attiré l'attention sur ses intérêts d'investissement tentaculaires en dehors d'OpenAI, de la startup de cryptomonnaie Worldcoin à la société de fusion Helion Energy, ainsi que sur ses activités de collecte de fonds au Moyen-Orient.

    OpenAI a déclaré qu'une enquête indépendante menée à la suite de l'éviction spectaculaire de M. Altman de la société en novembre dernier a conclu qu'il n'avait commis aucun acte répréhensible en ce qui concerne la sécurité des produits ou les finances d'OpenAI.

    Source : Helen Toner

    Et vous ?

    Quelle analyse faites-vous de ces éléments ?
    Sam Altman accusé de monter les membres du conseil les uns contre les autres, cela vous semble-t-il crédible ? Si oui, cela justifie-t-il la décision du conseil ?

    Voir aussi :

    Sam Altman est le propriétaire du fonds de capital-risque d'OpenAI. Lancé pour investir dans d'autres projets IA, il n'est ni la propriété d'OpenAI, ni celle de sa fondation à but non lucratif affilié

    Sam Altman cherche des milliers de milliards de dollars pour financer des puces d'IA, et discute de projets "extrêmement ambitieux" avec des investisseurs, dont les Émirats arabes unis
    Contribuez au club : Corrections, suggestions, critiques, ... : Contactez le service news et Rédigez des actualités

  5. #85
    Chroniqueur Actualités

    Homme Profil pro
    Administrateur de base de données
    Inscrit en
    Mars 2013
    Messages
    8 667
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : Canada

    Informations professionnelles :
    Activité : Administrateur de base de données

    Informations forums :
    Inscription : Mars 2013
    Messages : 8 667
    Points : 201 869
    Points
    201 869
    Par défaut Sam Altman reconnaît qu'OpenAI ne comprend pas entièrement le fonctionnement du GPT malgré des progrès rapides
    Sam Altman reconnaît qu'OpenAI ne comprend pas entièrement le fonctionnement du GPT malgré des progrès rapides,
    mais estime que ce n'est pas nécessaire pour publier de nouvelles versions

    Dans une récente interview, le PDG d’OpenAI, Sam Altman, a abordé la question de la sécurité de l’intelligence artificielle (IA) et du potentiel de cette technologie pour l’humanité. Cependant, il n’a pas semblé avoir une réponse satisfaisante à la question fondamentale de la façon dont GPT fonctionne. Altman a admis que l’interprétabilité, c’est-à-dire la compréhension de la manière dont les systèmes d’IA prennent des décisions, reste un défi. Il a comparé GPT au cerveau humain, soulignant que nous ne comprenons pas non plus exactement comment fonctionne notre propre cerveau, mais nous lui faisons confiance pour suivre certaines règles et expliquer pourquoi nous pensons de certaines manières.

    Fin mai, OpenAI a déclaré mardi qu'elle avait commencé à former un nouveau modèle phare d'intelligence artificielle qui succéderait à la technologie GPT-4 qui alimente son populaire chatbot en ligne, ChatGPT. Ce nouveau modèle, encore en phase d’entraînement, promet d’être plus puissant, plus précis et plus polyvalent que jamais.

    OpenAI vise à faire progresser la technologie de l'intelligence artificielle plus rapidement que ses rivaux, tout en apaisant les critiques qui affirment que cette technologie devient de plus en plus dangereuse, contribuant à diffuser de la désinformation, à remplacer des emplois et même à menacer l'humanité. Les experts ne s'accordent pas sur la date à laquelle les entreprises technologiques atteindront l'intelligence artificielle générale, mais des sociétés comme OpenAI, Google, Meta et Microsoft ont régulièrement augmenté la puissance des technologies d'intelligence artificielle depuis plus d'une décennie, faisant un bond en avant tous les deux ou trois ans environ.

    L'entreprise n'a pas explicitement déclaré qu'il s'agissait du GPT-5. Jusqu'à présent, OpenAI a suivi une séquence de dénomination claire pour ses modèles fondamentaux sous la forme de variations numériquement croissantes de GPT. Son dernier modèle fondateur, qui alimente notamment ChatGPT, est GPT-4, de sorte que son prochain modèle phare devrait prendre la forme de GPT-5. On s'attend à ce qu'OpenAI publie une mise à jour majeure sous la forme de GPT-5 dans les mois à venir, en particulier face à la concurrence de plus en plus intense de modèles rivaux tels que le Llama 3 de Meta, le Gemini de Google et le Claude 3 d'Anthropic.

    Nom : sam.png
Affichages : 112455
Taille : 365,5 Ko

    Pas besoin de savoir comment GPT fonctionne pour le proposer au public

    Quelques jours après cette annonce, le PDG de l'entreprise, Sam Altman, a déclaré qu'OpenAI n'avait pas besoin de comprendre parfaitement son produit pour en publier de nouvelles versions. Lors d'un entretien le 30 mai avec Nicholas Thompson, PDG de The Atlantic, au sommet mondial AI for Good de l'Union internationale des télécommunications (UIT) à Genève, en Suisse, Altman a parlé de la sécurité de l'IA et du potentiel de la technologie pour le bien de l'humanité. Toutefois, le PDG n'a pas semblé avoir une bonne réponse à la question fondamentale du fonctionnement de GPT.

    « Nous n'avons certainement pas résolu la question de l'interprétabilité », a déclaré Altman. Dans le domaine de l'IA, l'interprétabilité - ou l'explicabilité - consiste à comprendre comment les systèmes d'IA et d'apprentissage automatique prennent des décisions, selon le Centre pour la sécurité et les technologies émergentes de l'université de Georgetown.

    « Si vous ne comprenez pas ce qui se passe, n'est-ce pas un argument pour ne pas continuer à publier de nouveaux modèles plus puissants ? a demandé Thompson. Altman a éludé la question et a fini par répondre que, même en l'absence d'une cognition complète, « ces systèmes sont généralement considérés comme sûrs et robustes ».

    Voici son raisonnement : GPT, comme le cerveau humain, génère du contenu en se basant sur des ensembles de données existants et peut apprendre au fil du temps. Cependant, il ne possède pas d’intelligence émotionnelle ni de conscience humaine. Malgré cela, il peut être difficile de comprendre comment les algorithmes, tout comme notre cerveau, parviennent à leurs conclusions.

    « Nous ne comprenons pas ce qui se passe dans votre cerveau, neurone par neurone, et pourtant nous savons que vous pouvez suivre certaines règles et nous pouvons vous demander d'expliquer pourquoi vous pensez quelque chose », a déclaré Altman. En comparant le GPT au cerveau humain, Altman a évoqué la présence d'une boîte noire, ou d'un sentiment de mystère derrière sa fonctionnalité. À l'instar du cerveau humain, la technologie d'IA générative telle que GPT crée de nouveaux contenus sur la base d'ensembles de données existants et est censée apprendre au fil du temps.


    Alors qu'OpenAI poursuit son déploiement itératif, la sécurité reste une préoccupation majeure

    D'autant plus que l'entreprise a récemment dissous son ancienne équipe de sécurité, dirigée par l'ancien scientifique en chef Ilya Sutskever, et a créé une nouvelle équipe de sécurité dirigée par Altman lui-même.

    En fait, OpenAI a déclaré avoir créé un nouveau comité chargé d'évaluer les risques posés par la nouvelle technologie. Ce comité sera dirigé conjointement par le PDG et cofondateur Sam Altman, ainsi que par trois membres du conseil d'administration de l'entreprise : le président Bret Taylor, Adam D'Angelo et Nicole Seligman.

    Six experts techniques et politiques de l'OpenAI - Aleksander Madry (responsable de la préparation), Lilian Weng (responsable des systèmes de sécurité), John Schulman (responsable de la science de l'alignement), Matt Knight (responsable de la sécurité) et Jakub Pachocki (scientifique en chef) - feront également partie du comité et l'entreprise a déclaré qu'elle « retiendra et consultera d'autres experts en matière de sûreté, de sécurité et de technologie » pour soutenir le travail.

    La première tâche du comité consistera à examiner et à développer les processus et les garanties de l'entreprise au cours des 90 prochains jours, après quoi il fera part de ses recommandations à l'ensemble du conseil d'administration.

    Altman a réitéré lors du sommet que la formation d'un nouveau comité de sûreté et de sécurité a pour but d'aider OpenAI à se préparer pour le prochain modèle. « Si nous avons raison de dire que la trajectoire d'amélioration va rester abrupte, il est primordial de déterminer les structures et les politiques que les entreprises et les pays devraient mettre en place dans une perspective à long terme, a déclaré Altman.

    « Il me semble que plus nous pouvons comprendre ce qui se passe dans ces modèles, mieux c'est », a-t-il ajouté, tout en admettant qu'OpenAI n'en est pas encore là. « Je pense que cela peut faire partie de ce paquet cohérent sur la manière dont nous pouvons faire et vérifier les allégations de sécurité.

    Une perspective remise en cause par deux anciennes membres du conseil d'administration d'OpenAI

    Peut-on s'attendre à ce que les entreprises privées qui repoussent les frontières d'une nouvelle technologie révolutionnaire agissent dans l'intérêt de leurs actionnaires et du reste du monde ? Fin mai, Helen Toner et Tasha McCauley, anciennes membres du conseil d'administration d'OpenAI, ont publié un article d'opinion commun dans The Economist sur la décision d'OpenAI :

    « Lorsque nous avons été recrutées au conseil d'administration d'OpenAI - Tasha en 2018 et Helen en 2021 - nous étions prudemment optimistes et pensions que l'approche innovante de l'entreprise en matière d'autogouvernance pourrait offrir un modèle de développement responsable de l'IA. Mais notre expérience nous a appris que l'autogestion ne peut pas résister de manière fiable à la pression des incitations au profit. Compte tenu de l'énorme potentiel d'impact positif et négatif de l'IA, il n'est pas suffisant de supposer que ces incitations seront toujours alignées sur le bien public. Pour que l'essor de l'IA profite à tous, les gouvernements doivent commencer dès maintenant à mettre en place des cadres réglementaires efficaces.

    « Si une entreprise avait pu s'autogérer avec succès tout en développant en toute sécurité et de manière éthique des systèmes d'IA avancés, c'était bien OpenAI. L'organisation a été créée à l'origine en tant qu'organisation à but non lucratif avec une mission louable : veiller à ce que l'IAG, ou intelligence artificielle générale - les systèmes d'IA qui sont généralement plus intelligents que les humains - profite à "l'ensemble de l'humanité". Par la suite, une filiale à but lucratif a été créée pour réunir les capitaux nécessaires, mais l'association à but non lucratif est restée aux commandes. L'objectif déclaré de cette structure inhabituelle était de protéger la capacité de l'entreprise à s'en tenir à sa mission initiale, et le conseil d'administration avait pour mandat de faire respecter cette mission. C'était sans précédent, mais cela valait la peine d'essayer. Malheureusement, cela n'a pas fonctionné.

    « En novembre dernier, dans un effort pour sauver cette structure d'autorégulation, le conseil d'administration de l'OpenAI a licencié son PDG, Sam Altman. La capacité du conseil d'administration à défendre la mission de l'entreprise était devenue de plus en plus limitée en raison des comportements de longue date de M. Altman, qui, entre autres choses, ont, selon nous, sapé la surveillance du conseil d'administration sur les décisions clés et les protocoles de sécurité internes. Plusieurs hauts responsables ont fait part en privé de leurs graves préoccupations au conseil d'administration, affirmant qu'ils pensaient que M. Altman cultivait "une culture toxique du mensonge" et se livrait à "un comportement [qui] peut être qualifié d'abus psychologique". Selon OpenAI, une enquête interne a révélé que le conseil d'administration avait
    "agi dans le cadre de son large pouvoir discrétionnaire" pour licencier M. Altman, mais a également conclu que sa conduite n'avait pas "justifié son renvoi". OpenAI a fourni peu de détails justifiant cette conclusion et n'a pas mis le rapport d'enquête à la disposition des employés, de la presse ou du public.

    « La question de savoir si un tel comportement devrait généralement "justifier la révocation" d'un PDG est un sujet à débattre ultérieurement. Mais dans le cas spécifique d'OpenAI, étant donné le devoir du conseil d'administration de fournir un contrôle indépendant et de protéger la mission d'intérêt public de l'entreprise, nous soutenons l'action du conseil d'administration de licencier M. Altman. Nous pensons également que les développements survenus depuis son retour dans l'entreprise - y compris sa réintégration au conseil d'administration et le départ de talents seniors axés sur la sécurité - n'augurent rien de bon pour l'expérience d'OpenAI en matière d'autogouvernance ».

    Source : interview (vidéo dans le texte)

    Et vous ?

    Quelle est votre opinion sur l’opacité des modèles d’IA comme GPT ? Pensez-vous que les entreprises devraient être plus transparentes quant à la manière dont ces systèmes fonctionnent ?
    Comment percevez-vous le rôle de l’IA dans notre société ? Est-ce une opportunité pour l’innovation ou une menace pour l’emploi et la vie privée ?
    Croyez-vous que nous devrions accorder plus d’attention à la sécurité des systèmes d’IA ? Si oui, quelles mesures devraient être prises pour garantir leur utilisation responsable ?
    Pensez-vous que l’IA pourrait un jour atteindre un niveau d’intelligence comparable à celui de l’homme ? Quelles seraient les implications d’une telle avancée ?
    Quelles sont vos préoccupations concernant l’avenir de l’IA ? Comment pouvons-nous maximiser les avantages tout en minimisant les risques ?
    Contribuez au club : Corrections, suggestions, critiques, ... : Contactez le service news et Rédigez des actualités

  6. #86
    Membre chevronné
    Homme Profil pro
    Chargé de projets
    Inscrit en
    Décembre 2019
    Messages
    493
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Âge : 33
    Localisation : France, Hérault (Languedoc Roussillon)

    Informations professionnelles :
    Activité : Chargé de projets
    Secteur : High Tech - Éditeur de logiciels

    Informations forums :
    Inscription : Décembre 2019
    Messages : 493
    Points : 2 087
    Points
    2 087
    Par défaut
    C'est hallucinant non ? C'est comme si le Président de Ferrrari expliquait calmement qu'il ne savait même plus comment ses voitures avancent mais que c'est pas grave tant qu'elles avancent !

    Je caricature mais c'est un peu flippant quand même.

    Et je pense tout de suite au début de l'IA, comme le walk out d'amazon, qui en fait sont juste des milliers de travailleurs sous payés en Inde, donc effectivement vu sous cet angle c'est mieux si le PDG dit qu'il sait même plus comment ça fonctionne, il risque moins gros

  7. #87
    Membre extrêmement actif
    Homme Profil pro
    Développeur informatique
    Inscrit en
    Octobre 2017
    Messages
    1 894
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : Suisse

    Informations professionnelles :
    Activité : Développeur informatique

    Informations forums :
    Inscription : Octobre 2017
    Messages : 1 894
    Points : 6 011
    Points
    6 011
    Par défaut
    Citation Envoyé par Jules34 Voir le message
    C'est hallucinant non ?P
    Ben, non.

    Le monsieur prépare juste sa défense quand il finira devant un tribunal parce que son "IA machin" a entrainé des catastrophes.

    Rappelez-vous du charmant fondateur de Facebook Mark Zuckerberg mis en accusation par des sénateurs lors d'auditions organisées par les autorités américaines: Il a beaucoup pleuré, a dit qu'il ne savait pas et... s'est excusé platement de ne pas avoir fait plus pour éviter les dérives...

    Et après? Ben rien! Il a déposé sa cravate et son costard (cela servira pour les prochaines auditions), il a remis son jeans et son T-shirt sale puis a continué comme avant sa vie de milliardaire

  8. #88
    Expert confirmé Avatar de sergio_is_back
    Homme Profil pro
    Consultant informatique industrielle, développeur tout-terrain
    Inscrit en
    Juin 2004
    Messages
    1 125
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Âge : 56
    Localisation : France, Puy de Dôme (Auvergne)

    Informations professionnelles :
    Activité : Consultant informatique industrielle, développeur tout-terrain
    Secteur : High Tech - Électronique et micro-électronique

    Informations forums :
    Inscription : Juin 2004
    Messages : 1 125
    Points : 5 803
    Points
    5 803
    Par défaut
    Ça ne m'étonne même pas !

    Vous avez déjà amené une Renault en panne dans un garage Renault ?
    Eux aussi ne comprennent pas comment ça marche une Renault !!!

  9. #89
    Membre expert
    Profil pro
    programmeur du dimanche
    Inscrit en
    Novembre 2003
    Messages
    821
    Détails du profil
    Informations personnelles :
    Localisation : France

    Informations professionnelles :
    Activité : programmeur du dimanche
    Secteur : Santé

    Informations forums :
    Inscription : Novembre 2003
    Messages : 821
    Points : 3 502
    Points
    3 502
    Par défaut
    Cédric Villani (https://www.thinkerview.com/justine-...ouveau-maitre/) dit que c'est un des cas de l'histoire où on arrive de manière imprévue à de très bons résultats empiriquement alors même que la théorie est en retard sur la pratique.

  10. #90
    Communiqués de presse

    Femme Profil pro
    Traductrice Technique
    Inscrit en
    Juin 2023
    Messages
    1 204
    Détails du profil
    Informations personnelles :
    Sexe : Femme
    Localisation : France

    Informations professionnelles :
    Activité : Traductrice Technique

    Informations forums :
    Inscription : Juin 2023
    Messages : 1 204
    Points : 84 235
    Points
    84 235
    Par défaut Sam Altman, PDG d'OpenAI, estime que GPT-5 représente un "progrès significatif" par rapport à GPT-4
    Sam Altman, PDG d'OpenAI, estime que GPT-5 représente une "avancée significative" par rapport à GPT-4, qui "déraille" parfois en commettant des erreurs que même un enfant de six ans ne ferait pas.

    Sam Altman estime que le GPT-5 pourrait constituer une "avancée significative", mais qu'il reste encore "beaucoup de travail à faire".

    OpenAI est une organisation américaine de recherche en intelligence artificielle (IA) fondée en décembre 2015. Elle s'est donnée pour mission de développer une intelligence générale artificielle "sûre et bénéfique", qu'elle définit comme "des systèmes hautement autonomes qui surpassent les humains dans la plupart des travaux économiquement utiles".

    En Novembre 2022, elle lance ChatGPT, un chatbot et un assistant virtuel. Basé sur de grands modèles de langage (LLM), il permet aux utilisateurs d'affiner et d'orienter une conversation vers une longueur, un format, un style, un niveau de détail et un langage souhaités. On attribue à ChatGPT le début du boom de l'IA, qui a conduit à des investissements rapides et continus dans le domaine de l'intelligence artificielle (IA) et à l'attention du public à son égard.

    ChatGPT a été publié en tant qu'aperçu de recherche disponible gratuitement, mais en raison de sa popularité, OpenAI exploite maintenant le service sur un modèle freemium. Les utilisateurs du niveau gratuit peuvent accéder à GPT-4o et GPT-3.5. Les abonnements ChatGPT "Plus", "Team" et "Enterprise" offrent des fonctionnalités supplémentaires telles que la génération d'images DALL-E et une limite d'utilisation accrue de GPT-4o.

    Sam Altman, PDG d'OpenAI, s'attend à ce que GPT-5 fasse des progrès significatifs par rapport au GPT-4, mais il estime qu'il reste encore beaucoup de travail à faire. Altman est considéré comme l'une des figures de proue du boom de l'IA. Il s'attend à ce que le GPT-5 réponde à de nombreuses lacunes de GPT-4 et soit plus performant dans de nombreux domaines, tels que la logique. M. Altman s'attend à une amélioration prévisible des modèles. Il compare l'évolution actuelle au premier iPhone, qui était utile malgré ses défauts.

    Il considère que l'IA a le potentiel de changer la façon dont l'internet est utilisé et de remettre en question les modèles commerciaux existants. L'approche d'OpenAI, qui consiste à accorder des licences aux éditeurs, est plus honnête que les affirmations de Google ou de Perplexity selon lesquelles les offres d'IA profiteraient aux éditeurs. Mais elle présente également des risques pour la diversité des médias.


    Sam Altman estime que GPT-5 représente une "avancée significative" par rapport à GPT-4

    Le PDG d'OpenAI, Sam Altman, tempère les attentes à l'égard de GPT-5, mais s'attend tout de même à une "avancée significative". Lors d'une interview au Festival des idées d'Aspen, M. Altman s'est montré prudent quant aux progrès réalisés dans le développement de GPT-5. "Nous ne savons pas encore. Nous sommes optimistes, mais nous avons encore beaucoup de travail à faire", a-t-il déclaré.

    Malgré ses propos prudents, le responsable d'OpenAI s'attend à ce que GPT-5 représente une "avancée significative" par rapport à son prédécesseur, GPT-4. Le nouveau modèle vise à corriger de nombreuses erreurs commises par le GPT-4. "Je m'attends à ce qu'il constitue une avancée significative. La plupart des erreurs commises par le GPT-4 sont, par exemple, l'incapacité de raisonner, ou encore le fait de dérailler complètement et de commettre une erreur stupide, comme même un enfant de six ans n'en commettrait jamais", explique M. Altman.

    Il souligne que la technologie en est encore à ses débuts, avec des problèmes de données et d'algorithmes, et que les modèles sont relativement petits par rapport à leur potentiel futur. "Nous savons qu'ils s'améliorent de manière prévisible", déclare M. Altman, comparant le développement à celui de l'iPhone. "Le premier iPhone était encore très bogué, mais il était suffisamment bon pour être utile aux gens."

    Le commentaire d'Altman sur la taille des modèles semble être un léger changement par rapport à sa position d'il y a un an, lorsqu'il avait déclaré : "Nous sommes à la fin de l'ère des modèles géants". Mais même à l'époque, M. Altman n'avait pas dit que les modèles ne continueraient pas à se développer, et les investissements importants de Microsoft et d'OpenAI en matière de puissance de calcul et d'énergie témoignent d'un engagement permanent en faveur de l'augmentation des efforts de calcul.

    L'IA met l'économie de l'internet à l'épreuve

    M. Altman estime que "l'IA ne va pas changer de manière super significative, mais plutôt significative, la manière dont les gens utilisent l'internet", affirmant que les "modèles économiques du passé" doivent évoluer, et que cette discussion va au-delà du débat sur les données d'entraînement.

    L'approche d'OpenAI, qui consiste à conclure des accords avec des "éditeurs privilégiés" et à accorder des licences sur leur contenu d'actualités pour ChatGPT, peut être considérée comme plus honnête que celle d'autres entreprises proposant des produits similaires, telles que Google ou Perplexity. Ces dernières prétendent que leurs offres d'IA aident les éditeurs en augmentant le trafic vers leurs sites, ce qui est une affirmation douteuse, voire un mensonge pur et simple, compte tenu de l'état actuel de la technologie et de la manière dont ces services fonctionnent.

    Google n'a fourni aucune donnée pour étayer son affirmation selon laquelle les résumés d'IA pourraient être bénéfiques pour l'ensemble de l'écosystème Internet, et le PDG de Google, M. Pichai, reste extrêmement évasif lorsqu'il s'agit d'expliquer comment la stratégie d'IA de Google a déjà un impact sur le WWW, notamment avec Reddit, le partenaire de Google en matière d'IA, qui a récemment connu une hausse absurde de son trafic.

    Mais l'approche d'OpenAI n'est pas non plus parfaite. Si l'entreprise connaît un grand succès, elle pourrait devenir le gardien des médias dans un écosystème d'assistants d'IA, ce qui pourrait nuire à la diversité des médias et à la diversité d'opinion.

    Source : Interview de Sam Altman au Festival des idées d'Aspen

    Et vous ?

    Pensez-vous que ces propos sont crédibles ou pertinents ?
    Quel est votre avis sur le sujet ?

    Voir aussi :

    Sam Altman assure que GPT-5 va bénéficier d'une amélioration massive par rapport à GPT-4, faisant « un bond en avant dans les capacités de raisonnement avancées »

    « GPT-5 sera plus intelligent, plus rapide, plus polyvalent et meilleur dans toutes les tâches que GPT-4 », affirme Sam Altman, qui appelle une nouvelle fois à une réglementation mondiale sur l'IA

    GPT-5 pourrait arriver cet été en tant que MAJ « nettement améliorée » de ChatGPT. Les réactions divergentes soulignent les limites des MAJ précédentes et la nécessité d'une évaluation critique
    Publication de communiqués de presse en informatique. Contribuez au club : corrections, suggestions, critiques, ... Contactez le service news et Rédigez des actualités

  11. #91
    Chroniqueur Actualités
    Avatar de Anthony
    Homme Profil pro
    Rédacteur technique
    Inscrit en
    Novembre 2022
    Messages
    1 092
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : France, Gironde (Aquitaine)

    Informations professionnelles :
    Activité : Rédacteur technique

    Informations forums :
    Inscription : Novembre 2022
    Messages : 1 092
    Points : 18 072
    Points
    18 072
    Par défaut Microsoft quitte le conseil d'administration d'OpenAI alors que l'examen antitrust des pactes IA s'intensifie
    Microsoft quitte le conseil d'administration d'OpenAI alors que l'examen antitrust des pactes d'IA s'intensifie, cette participation a été obtenue après le chaos causé par l'éviction brutale de Sam Altman

    Microsoft a renoncé à son siège au conseil d'administration d'OpenAI, estimant que sa participation n'est plus nécessaire car le fabricant de ChatGPT a amélioré sa gouvernance depuis le chaos qui régnait dans la salle du conseil l'année dernière.

    Microsoft Corporation est une multinationale américaine et une entreprise technologique dont le siège se trouve à Redmond, dans l'État de Washington. Ses produits logiciels les plus connus sont la gamme de systèmes d'exploitation Windows, la suite d'applications de productivité Microsoft 365, la plateforme de cloud computing Azure et le navigateur web Edge. Ses produits matériels phares sont les consoles de jeux vidéo Xbox et la gamme d'ordinateurs personnels à écran tactile Microsoft Surface. Microsoft a été classée n° 14 dans le classement Fortune 500 2022 des plus grandes entreprises américaines en fonction de leur chiffre d'affaires total, et elle a été le plus grand fabricant de logiciels au monde en termes de chiffre d'affaires en 2022, selon Forbes Global 2000. Elle est considérée comme l'une des cinq grandes entreprises américaines de technologies de l'information, aux côtés d'Alphabet (société mère de Google), d'Amazon, d'Apple et de Meta (société mère de Facebook).

    OpenAI est une organisation américaine de recherche en intelligence artificielle (IA) fondée en décembre 2015 et dont le siège se trouve à San Francisco. Sa mission est de développer une intelligence artificielle générale "sûre et bénéfique", qu'elle définit comme "des systèmes hautement autonomes qui surpassent les humains dans la plupart des tâches économiquement utiles". En tant qu'organisation de premier plan dans l'essor actuel de l'IA, OpenAI a développé plusieurs grands modèles de langage, des modèles avancés de génération d'images et, précédemment, des modèles en code source libre. Son lancement de ChatGPT a été considéré comme le catalyseur d'un intérêt généralisé pour l'IA.


    Dans une lettre datée du mardi 9 juillet, Microsoft a confirmé qu'elle démissionnait, "avec effet immédiat", de son rôle d'observateur au sein du conseil d'administration de l'entreprise d'intelligence artificielle.

    « Nous apprécions le soutien apporté par la direction et le conseil d'administration d'OpenAI lorsque nous avons pris cette décision », indique la lettre.

    Ce départ surprise intervient dans un contexte d'intensification de l'examen par les autorités de réglementation antitrust du puissant partenariat en matière d'intelligence artificielle. Microsoft aurait investi 13 milliards de dollars dans OpenAI.

    Les régulateurs de l'Union européenne ont déclaré le mois dernier qu'ils jetteraient un regard neuf sur le partenariat en vertu des règles antitrust de l'Union des 27, tandis que la Federal Trade Commission des États-Unis et l'organisme britannique de surveillance de la concurrence ont également examiné le pacte.

    Microsoft a pris le siège du conseil d'administration à la suite d'une lutte de pouvoir au cours de laquelle le PDG d'OpenAI, Sam Altman, a été licencié, puis rapidement réintégré, tandis que les membres du conseil d'administration à l'origine de l'éviction ont été évincés.

    « Au cours des huit derniers mois, nous avons constaté des progrès significatifs de la part du nouveau conseil d'administration et nous sommes confiants dans la direction de l'entreprise », a déclaré Microsoft dans sa lettre. « Compte tenu de tout cela, nous ne pensons plus que notre rôle limité d'observateur soit nécessaire. »

    Avec le départ de Microsoft, OpenAI ne disposera plus de sièges d'observateurs au sein de son conseil d'administration.

    « Nous sommes reconnaissants à Microsoft d'avoir exprimé sa confiance dans le conseil d'administration et dans la direction de l'entreprise, et nous nous réjouissons de poursuivre notre partenariat fructueux », a déclaré OpenAI dans un communiqué.

    Il n'est pas difficile de conclure que la décision de Microsoft de se débarrasser du siège au conseil d'administration a été fortement influencée par la surveillance croissante des grandes entreprises technologiques et de leurs liens avec les startups d'IA, a déclaré Alex Haffner, partenaire en matière de concurrence au cabinet d'avocats britannique Fladgate.

    « Il est clair que les régulateurs se concentrent sur le réseau complexe d'interrelations que les grandes entreprises technologiques ont créé avec les fournisseurs d'IA, d'où la nécessité pour Microsoft et d'autres d'examiner attentivement la manière dont ils structurent ces arrangements à l'avenir », a-t-il déclaré.

    OpenAI a déclaré qu'elle adopterait une nouvelle approche pour « informer et engager des partenaires stratégiques clés » tels que Microsoft et Apple et des investisseurs tels que Thrive Capital et Khosla Ventures, avec des réunions régulières pour informer les parties prenantes des progrès réalisés et assurer une collaboration plus forte en matière de sûreté et de sécurité.

    Et vous ?

    Quelle lecture faites-vous de cette situation ?
    Trouvez-vous la décision de Microsoft crédible ou pertinente ?

    Voir aussi :

    OpenAI licencie le co-fondateur et PDG Sam Altman, l'accusant d'avoir menti au conseil d'administration de l'entreprise. Viré du conseil, le co-fondateur Greg Brockman a préféré démissionner

    Microsoft annonce un nouvel investissement de plusieurs milliards de dollars dans OpenAI, le créateur de ChatGPT, afin d'accélérer les percées dans le domaine de l'IA
    Contribuez au club : corrections, suggestions, critiques, ... Contactez le service news et Rédigez des actualités

Discussions similaires

  1. Réponses: 8
    Dernier message: 16/05/2023, 11h33
  2. Réponses: 1
    Dernier message: 10/12/2018, 16h07
  3. Réponses: 11
    Dernier message: 01/08/2017, 23h36
  4. Réponses: 5
    Dernier message: 11/10/2011, 16h23

Partager

Partager
  • Envoyer la discussion sur Viadeo
  • Envoyer la discussion sur Twitter
  • Envoyer la discussion sur Google
  • Envoyer la discussion sur Facebook
  • Envoyer la discussion sur Digg
  • Envoyer la discussion sur Delicious
  • Envoyer la discussion sur MySpace
  • Envoyer la discussion sur Yahoo