IdentifiantMot de passe
Loading...
Mot de passe oublié ?Je m'inscris ! (gratuit)
Navigation

Inscrivez-vous gratuitement
pour pouvoir participer, suivre les réponses en temps réel, voter pour les messages, poser vos propres questions et recevoir la newsletter

Intelligence artificielle Discussion :

Sam Altman est accusé d'avoir manqué de transparence au sujet des efforts d'OpenAI en matière de sécurité


Sujet :

Intelligence artificielle

  1. #21
    Chroniqueur Actualités

    Homme Profil pro
    Rédacteur technique
    Inscrit en
    Juin 2023
    Messages
    929
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : Bénin

    Informations professionnelles :
    Activité : Rédacteur technique
    Secteur : High Tech - Éditeur de logiciels

    Informations forums :
    Inscription : Juin 2023
    Messages : 929
    Points : 16 526
    Points
    16 526
    Par défaut Sam Altman cherche désormais à s'emparer de la réglementation sur l'IA et à réaliser des profits illimités
    Sam Altman cherche désormais à s'emparer de la réglementation sur l'IA et à réaliser des profits illimités
    il est accusé de vouloir verrouiller le marché pour préserver la position d'OpenAI

    Sam Altman, PDG d'OpenAI, continue d'insister sur la nécessité de réglementer l'IA et met en garde contre ses impacts potentiels sur les élections présidentielles de 2024 aux États-Unis. Il a déclaré dans une interview début novembre que l'IA représente non seulement un risque existentiel pour l'humanité, mais qu'elle peut également permettre de manipuler les électeurs. Il estime que les politiques doivent introduire rapidement des règles pour prévenir ces risques, mais il est accusé de vouloir s'appuyer sur la réglementation pour verrouiller le marché et dicter la marche à suivre aux acteurs existants. Ce qui lui permettrait de gagner plus d'argent avec ses produits.

    Altman appelle les politiques à protéger les élections contre les capacités de l'IA

    Sam Altman a donné au début du mois de novembre, quelques semaines avant le chaos momentané chez OpenAI, une interview qui est passée presque inaperçue. La discussion a porté sur les dangers potentiels des technologies d'IA émergentes et s'inscrit dans le cadre de l'événement "Joy Buolamwini and Sam Altman : Unmasking the Future of AI", organisé par Deepa Seetharaman, journaliste technologique au Wall Street Journal, au Commonwealth Club de San Francisco. Altman a déclaré lors de l'interview que l'IA progresse rapidement et a davantage d'impact sur des aspects comme les normes sociétales, la protection de la vie privée et la démocratie.


    Il a déclaré que l'IA pourrait être utilisée à mauvais escient lors des élections présidentielles de 2024 aux États-Unis d'une manière que le monde n'avait encore jamais vue auparavant. L'une des utilisations malveillantes les plus répandues de l'IA est les deepfakes, mais Altman affirme que ce n'est pas la chose qui l'effraie le plus. Il a déclaré que l'IA peut être utilisée pour personnaliser le discours, ce qui permet à attaquant d'avoir un pouvoir de "persuasion redoutable" sur sa victime. Selon Altman, les électeurs connaissent les deepfakes et peuvent les repérer en faisant preuve de vigilance, mais ils n'ont jamais été confrontés à une telle menace par le passé.

    « Je suis très inquiet de l'impact que cela aura sur les élections. Mais la principale inquiétude que j'ai n'est pas celle qui est la plus médiatisée. Tout le monde parle des deepfakes. Et je pense que les deepfakes constituent un problème politique dans la société de bien d'autres manières. Toutefois, dans un certain sens, c'est la dernière guerre. Nous connaissons les deepfakes. Les gens ont un certain degré d'anticorps contre eux. Nous avons une certaine vigilance sociétale. Lorsque les gens regardent une image, une vidéo ou toute autre chose, ils savent qu'il se peut que ce ne soit pas réel », a-t-il déclaré malgré les défis persistants liés aux deepfakes. Il a ajouté :

    « Et tout le monde pense qu'il n'y est pas sensible. C'est juste quelqu'un d'autre qui l'est. Nous sommes probablement tous un peu sensibles, mais c'est au moins un problème connu. Ce qui me préoccupe vraiment, pour cette prochaine élection et les suivantes, et plus généralement, c'est la capacité de persuasion personnalisée et individuelle de ces nouveaux modèles. C'est une chose nouvelle pour laquelle nous n'avons pas un antidote et je pense que nous y serons tous plus sensibles que nous ne le pensons ». La présentatrice a ensuite demandé à Altman ce à quoi cette manipulation pourrait ressembler à l'avenir, mais sa réponse n'a pas été très approfondie.

    « À quoi cela ressemble-t-il ? Comme si ChatGPT essayait de vous convaincre pour qui voter ? », a demandé la journaliste. Ce à quoi Altman a répondu : « probablement pas. Si vous demandez à ChatGPT pour qui voter lors des élections, j'ai d'autres questions à vous poser », faisant réagir le public. Toutefois, il a ajouté : « cela signifie que des systèmes sur Internet pilotés par l'IA à des degrés divers vous influencent subtilement ». Altman n'a pas développé sa pensée, mais laisser supposer que l'IA pourrait permettre à un acteur de la menace de créer des campagnes ciblées - remplies d'infox sur un candidat, par exemple - pour influencer certains électeurs.

    À la question de savoir comment OpenAI tente de résoudre ce problème, Altman a répondu : « sur notre système, nous faisons beaucoup pour résoudre ce problème, mais il y aura d'autres modèles que les gens utiliseront dans le monde et que je ne pense pas que nous (ni aucun autre modèle) puissions détecter. Une seule entreprise, par exemple, peut les détecter. La question qui se pose est la suivante : peut-on utiliser un système d'IA pour détecter les résultats d'un autre système d'IA ? Pouvez-vous les marquer d'un filigrane ? Pouvez-vous faire quelque chose même si les systèmes ne sont pas filigranés ? Pouvez-vous détecter les bons modèles ? ».

    Pour Altman, ce sont les questions les plus "effrayantes" sur lesquelles il faut réfléchir : « je pense franchement que ces capacités sont quelque peu exagérées. Mais c'est comme si un adversaire étranger avait formé son propre système d'IA dont personne ne connaît l'existence. C'est ce genre de choses qui m'inquiète ». Il estime que les politiques doivent rapidement intervenir pour établir des règles pour l'industrie : « nous [chez OpenAI] avons appelé à une réglementation gouvernementale, je pense que nous sommes les premiers et les plus bruyants de toutes les entreprises. Nous avons absolument besoin que le gouvernement joue un rôle dans ce domaine ».

    Altman torpille les initiatives de l'UE visant à établir une réglementation sur l'IA

    Dans la communauté, beaucoup ne croient pas aux discours d'Altman. Il est accusé de tenir des discours alarmistes pour susciter la peur chez son auditoire et pour inciter les politiques à adopter une législation prématurée. De plus, les critiques affirment qu'Altman se met en scène afin de pouvoir influencer la réglementation et veiller à ce qu'elle soit favorable à OpenAI. Certains critiques estiment qu'à l'heure actuelle, une réglementation risquerait de relever considérablement les barrières d'entrée sur le marché, ce qui nuirait à la concurrence et à l'innovation. Pour eux, Altman ne se préoccupe pas du bien-être de l'humanité, mais bien de celui de son entreprise.


    En octobre dernier, Yann LeCun, responsable de l'IA chez Meta, a publié sur X un message dans lequel il a dénoncé les multiples appels d'Altman à une réglementation et a fustigé les personnes qui appellent à l'interdiction des projets d'IA open source : « Altman, Hassabis et Amodei sont ceux qui exercent actuellement un lobbying massif auprès des entreprises. Ce sont eux qui tentent de s'emparer de l'industrie de l'IA par le biais d'une réglementation. Vous, Geoff et Yoshua, donnez des munitions à ceux qui font pression pour interdire la R&D ouverte en matière d'IA ». LeCun, pionnier de l'IA et prix Turing 2018, semble convaincu qu'Altman se joue de l'industrie.

    « Je vous l'ai dit. La route de l'argent est son objectif. Au diable les gens qui ont menacé de démissionner quand ce type est parti », a écrit un critique. Altman trouve néanmoins du soutien auprès de plusieurs de ces pairs, ainsi que de son interlocutrice Joy Buolamwini lors de l'événement. « Les entreprises ont un rôle à jouer, mais c'est là que je vois que les gouvernements doivent intervenir parce que leur intérêt devrait être l'intérêt public », note-t-elle. Buolamwini est informaticienne et activiste numérique au MIT. Elle est la fondatrice de "Algorithmic Justice League", une organisation qui combat les préjugés dans les processus de décision des logiciels.

    Lors de l'événement, certains membres de l'auditoire ont critiqué les commentaires des orateurs, en particulier ceux d'Altman. « J'ai trouvé que certains des propos de Sam étaient un peu idéalisés et pas vraiment fondés sur ce que son outil [ChatGPT] a produit », a noté Emma Charity, membre du Laboratoire de technologie d'intérêt public de Stanford. Faisant écho à Charity, Emily Tianshi, qui étudie la science des données et les systèmes sociaux, a déclaré : « Altman parlait comme s'il n'avait pas de contrôle direct sur les préjudices dont il s'inquiète ». Sur la toile, d'autres ont rappelé le double jeu d'Altman en ce qui concerne la réglementation européenne.

    En effet, Altman appelle publiquement à une réglementation sur l'IA, mais torpille les tentatives de l'Union européenne d'imposer une réglementation stricte aux entreprises. L'association bruxelloise Corporate Europe Observatory a classé OpenAI, Microsoft et Google parmi les cinq plus grands lobbyistes qui font pression contre la législation de l'UE. Ces géants technologiques recherchent en fait un environnement juridique leur permettant une liberté totale pour développer et déployer ces technologies sans surveillance stricte. Cela se fait en coulisse, mais en public, ils chantent à qui veut bien l'entendre qu'ils souhaitent être réglementés.

    La loi européenne sur l'IA devait être le premier texte législatif d'envergure au monde en matière d'IA. Mais les trois grands États membres - la France, l'Allemagne et l'Italie - ont décidé de supprimer la partie de la loi qui vise à réglementer les modèles de base. Les modèles de base sous-tendent les logiciels d'IA les plus puissants au monde, comme ChatGPT d'OpenAI et Bard de Google. Ces logiciels d'IA sont souvent complexes et se comportent d’une manière qui peut surprendre même leurs propres développeurs. Avec lobbying intense, la France, l'Italie et l'Allemagne veulent laisser les fournisseurs de modèles de base se réguler eux-mêmes.

    Au cours de leur discussion, Buolamwini a demandé à Altman : « avez-vous quelque chose [à dire] qui pourrait apaiser les inquiétudes des gens ? ». Ce à quoi Altman a répondu : « je pense que je vous mentirais en apaisant vos inquiétudes. Je suis moi-même assez nerveux à ce sujet. Ce qui est le plus difficile à comprendre, c'est que nous sommes en train de construire une technologie qui, si elle continue, si elle suit cette courbe, peut être la meilleure ou la pire chose que l'humanité ait jamais construite ». Enfin, Altman déplore également le fait qu'il n'y a que très peu d'investissements productifs dans ce qu'il a appelé : le risque existentiel.

    Et vous ?

    Que pensez-vous de l'appel incessant d'Altman à une réglementation sur l'IA ?
    Que pensez-vous des propos d'Altman sur les impacts potentiels de l'IA sur les élections ?
    Pourquoi appelle-t-il à la réglementation de l'IA et combat dans le même temps la législation de l'UE ?
    Altman se livre-t-il à un jeu de dupe ? Que pensez-vous des allégations portées par Yann LeCun contre Altman ?

    Voir aussi

    Le responsable de l'IA chez Meta affirme que les modèles d'IA open source sont le seul moyen d'empêcher que le secteur soit contrôlé par un petit groupe d'entreprises et s'oppose à la réglementation

    La nouvelle loi européenne sur l'IA est menacée par le lobbying intense des grandes entreprises technologiques, elles font pression pour retirer "les modèles de base" de la réglementation

    « L'AGI est le mensonge de l'année. L'intelligence artificielle générale n'existe pas », selon un critique qui affirme que ce mensonge est raconté pour des raisons financières et politiques

  2. #22
    Chroniqueur Actualités
    Avatar de Anthony
    Homme Profil pro
    Rédacteur technique
    Inscrit en
    Novembre 2022
    Messages
    1 278
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : France, Gironde (Aquitaine)

    Informations professionnelles :
    Activité : Rédacteur technique

    Informations forums :
    Inscription : Novembre 2022
    Messages : 1 278
    Points : 21 010
    Points
    21 010
    Par défaut Le PDG d'OpenAI met en garde contre les "désalignements sociétaux" qui pourraient rendre l'IA dangereuse
    Le PDG d'OpenAI, Sam Altman, met en garde contre les "désalignements sociétaux" qui pourraient rendre l'IA dangereuse et faire des ravages dans les systèmes, ce qui l'empêche de dormir la nuit

    Le PDG d'OpenAI, créateur de ChatGPT, a déclaré ce mardi 13 février que les dangers qui l'empêchent de dormir en ce qui concerne l'intelligence artificielle sont les "désalignements sociétaux très subtils" qui pourraient faire des ravages dans les systèmes.

    Sam Altman, qui s'exprimait par appel vidéo lors du Sommet mondial des gouvernements à Dubaï, a réitéré son appel à la création d'un organisme tel que l'Agence internationale de l'énergie atomique pour superviser l'IA, qui progresse probablement plus vite que le monde ne le prévoit.

    "Il y a là-dedans des choses faciles à imaginer et où les choses tournent vraiment mal. Et je ne suis pas très intéressé par les robots tueurs qui se promènent dans les rues et qui risquent de mal tourner", a déclaré M. Altman. "Je m'intéresse beaucoup plus aux désalignements sociétaux très subtils, où nous avons simplement ces systèmes dans la société et sans mauvaise intention particulière, les choses tournent horriblement mal."

    Toutefois, M. Altman a souligné que l'industrie de l'IA, comme OpenAI, ne devrait pas être aux commandes lorsqu'il s'agit d'élaborer des réglementations régissant l'industrie.

    "Nous en sommes encore au stade des discussions. Tout le monde organise une conférence. Tout le monde a une idée, un document d'orientation, et c'est très bien ainsi", a déclaré M. Altman. "Je pense que nous sommes encore à une époque où le débat est nécessaire et sain, mais à un moment donné dans les prochaines années, je pense que nous devons nous diriger vers un plan d'action avec une véritable adhésion dans le monde entier."


    OpenAI, une jeune entreprise d'intelligence artificielle basée à San Francisco, est l'un des leaders dans ce domaine. Microsoft a investi environ 1 milliard de dollars dans OpenAI. L'Associated Press a signé un accord avec OpenAI pour lui permettre d'accéder à ses archives d'actualités. De son côté, le New York Times a intenté un procès à OpenAI et à Microsoft pour avoir utilisé ses articles sans autorisation afin d'entraîner les chatbots d'OpenAI.

    Le succès d'OpenAI a fait de M. Altman le visage public de la commercialisation rapide de l'IA générative - et des craintes que suscite cette nouvelle technologie.

    Les Émirats arabes unis, fédération autocratique de sept cheikhs régis par l'hérédité, présentent des signes de ce risque. La liberté d'expression y est étroitement contrôlée. Ces restrictions affectent le flux d'informations exactes - les mêmes détails sur lesquels les programmes d'IA comme ChatGPT s'appuient en tant que systèmes d'apprentissage automatique pour fournir leurs réponses aux utilisateurs.

    Les Émirats disposent également de la société G42 d'Abou Dhabi, supervisée par le puissant conseiller à la sécurité nationale du pays. Le G42 possède ce que les experts considèrent comme le meilleur modèle d'intelligence artificielle en langue arabe au monde. L'entreprise a fait l'objet d'allégations d'espionnage en raison de ses liens avec une application de téléphonie mobile identifiée comme un logiciel espion. Elle a également fait l'objet d'allégations selon lesquelles elle aurait pu recueillir secrètement du matériel génétique d'Américains pour le compte du gouvernement chinois.

    Le G42 a déclaré qu'elle couperait ses liens avec les fournisseurs chinois en raison des inquiétudes des Américains. Toutefois, la discussion avec M. Altman, animée par Omar al-Olama, ministre d'État des Émirats arabes unis chargé de l'intelligence artificielle, n'a abordé aucune des préoccupations locales.

    Pour sa part, M. Altman s'est dit encouragé de voir que les écoles, où les enseignants craignaient que les élèves n'utilisent l'IA pour rédiger leurs devoirs, considèrent désormais cette technologie comme cruciale pour l'avenir. Il a toutefois ajouté que l'IA n'en était encore qu'à ses balbutiements.

    "Je pense que la raison en est que la technologie dont nous disposons actuellement est comparable au tout premier téléphone portable dont l'écran était en noir et blanc", a déclaré M. Altman. "Il faut donc nous laisser un peu de temps. Mais je pense que dans quelques années, la technologie sera bien meilleure qu'aujourd'hui. Et dans une décennie, ce sera tout à fait remarquable".

    Source : Sam Altman, lors du Sommet mondial des gouvernements à Dubaï

    Et vous ?

    Quel est votre avis sur le sujet ?

    Trouvez-vous que les craintes soulevées par M. Altman sont justifiées ou pertinentes ?

    Voir aussi :

    Le PDG d'OpenAI, Sam Altman, déclare au Congrès américain qu'il craint que l'IA ne soit "nuisible" au monde, il ajoute qu'une réglementation de l'IA est urgente afin d'éviter une catastrophe

    Le PDG d'OpenAI, Sam Altman, se dit effrayé par sa propre invention, l'IA pourrait être utilisée pour diffuser largement de fausses informations, ou encore lancer une nouvelle course à l'armement

    Le PDG d'OpenAI craint que les autres développeurs d'IA qui travaillent sur des outils de type ChatGPT ne mettent pas de limites de sécurité, il estime que cela pourrait créer une IA plus diabolique

  3. #23
    Chroniqueur Actualités
    Avatar de Anthony
    Homme Profil pro
    Rédacteur technique
    Inscrit en
    Novembre 2022
    Messages
    1 278
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : France, Gironde (Aquitaine)

    Informations professionnelles :
    Activité : Rédacteur technique

    Informations forums :
    Inscription : Novembre 2022
    Messages : 1 278
    Points : 21 010
    Points
    21 010
    Par défaut Sam Altman estime qu'une agence internationale devrait surveiller les IA "les plus puissantes"
    Sam Altman, PDG d'OpenAI, estime qu'une agence internationale devrait surveiller les IA "les plus puissantes" pour garantir une "sécurité raisonnable", car ces systèmes peuvent "causer d'importants dommages"

    Le développement rapide de l'intelligence artificielle (IA) a suscité un débat mondial sur son impact potentiel et sur la nécessité d'un développement responsable. L'un des aspects essentiels de ce débat est la réglementation de l'IA, les experts s'interrogeant sur la manière de garantir une utilisation sûre et éthique de l'IA. Sam Altman, PDG d'OpenAI, une société de recherche axée sur le développement d'une intelligence artificielle générale sûre et bénéfique, est l'un des principaux acteurs de ce débat.

    Samuel Harris Altman est un entrepreneur et investisseur américain surtout connu pour être le PDG d'OpenAI depuis 2019 (il a été brièvement licencié et réintégré en novembre 2023). Il est également directeur général d'AltC Acquisition Corp depuis 2021. Altman est considéré comme l'une des figures de proue du boom de l'IA. Il a abandonné l'université de Stanford au bout de deux ans et a fondé Loopt, un service de réseau social mobile, levant plus de 30 millions de dollars en capital-risque. En 2011, Altman a rejoint Y Combinator, un accélérateur de startups, dont il a été le président de 2014 à 2019.

    Dans une récente interview podcast, M. Altman a plaidé en faveur de la création d'une agence internationale chargée de contrôler et de garantir la « sécurité raisonnable » des puissants systèmes d'IA.


    Pourquoi une agence internationale ?

    La proposition d'Altman de créer une agence internationale découle de sa conviction que les systèmes d'IA les plus puissants auront le potentiel de causer des dommages importants à l'échelle mondiale. Il estime que les effets négatifs d'une IA aussi avancée pourraient dépasser les frontières nationales et qu'il serait donc difficile pour les pays de les réglementer efficacement par eux-mêmes.

    Dans le cadre du podcast All-In, M. Altman s'est dit préoccupé par l'avenir proche, déclarant qu'« il arrivera un moment [...] où les systèmes d'IA d'avant-garde seront capables de causer des dommages importants à l'échelle mondiale ».

    Il envisage la création d'une agence internationale chargée d'examiner les systèmes les plus puissants et de garantir des tests de sécurité raisonnables.

    M. Altman reconnaît toutefois la nécessité d'une approche équilibrée. Il souligne les dangers d'une « réglementation excessive » et cherche un cadre qui permette d'éviter les restrictions excessives tout en atténuant les risques. Il souligne les pièges potentiels de la sous-réglementation et de la sur-réglementation.

    Les lois ne peuvent pas rattraper les progrès de l'IA

    Ce débat sur la réglementation de l'IA coïncide avec les efforts législatifs en cours dans le monde entier. L'Union européenne a récemment adopté la loi sur l'intelligence artificielle, qui vise à catégoriser les risques liés à l'IA et à interdire les applications inacceptables. De même, aux États-Unis, le président Biden a signé un décret visant à promouvoir la transparence des modèles d'IA puissants. La Californie s'est également imposée comme chef de file en matière de réglementation de l'IA, les législateurs examinant une multitude de projets de loi pertinents.

    M. Altman estime qu'une agence internationale offre une plus grande adaptabilité qu'une législation nationale. Il souligne le rythme rapide du développement de l'IA, suggérant que des lois rigides deviendraient rapidement obsolètes. Il exprime son scepticisme quant à la capacité des législateurs à élaborer des réglementations à l'épreuve du temps, déclarant : « Ce qui est écrit dans la loi, c'est que dans 12 mois, tout sera écrit de travers. »

    En termes plus simples, M. Altman compare la surveillance de l'IA à la réglementation en matière de sécurité aérienne. Il explique : « Lorsque des pertes importantes de vies humaines sont une possibilité sérieuse [...] comme dans les avions [...], je pense que nous sommes heureux de disposer d'une sorte de cadre de tests. » Son scénario idéal implique un système dans lequel les utilisateurs, comme les passagers d'un avion, peuvent faire confiance à la sécurité de l'IA sans avoir besoin d'en comprendre les moindres détails.

    Pourquoi n'y a-t-il pas encore de véritable réglementation de l'IA ?

    Malgré ces efforts continus, l'élaboration d'un cadre réglementaire réellement efficace pour l'IA présente plusieurs défis.

    L'un des principaux obstacles est le rythme rapide du développement de l'IA. Le domaine est en constante évolution et il est donc difficile pour les réglementations de suivre le rythme des avancées technologiques. Les lois rédigées aujourd'hui peuvent être insuffisantes pour faire face aux risques posés par les systèmes d'IA développés demain.

    Un autre défi réside dans la complexité des systèmes d'IA. Ces systèmes peuvent être incroyablement complexes et difficiles à comprendre, même pour les experts. Cette complexité fait qu'il est difficile pour les régulateurs d'identifier et d'atténuer les risques potentiels.

    En outre, il n'existe pas de consensus mondial sur la manière de réglementer l'IA. Les priorités et la tolérance au risque varient d'un pays à l'autre en ce qui concerne le développement de l'IA. Il est donc difficile d'établir un cadre international unifié.

    Enfin, il existe une inquiétude quant à la possibilité d'étouffer l'innovation. Des réglementations trop restrictives pourraient entraver le développement d'applications bénéfiques de l'IA.

    Il est essentiel de trouver un juste équilibre entre la sécurité, l'innovation et la coopération internationale pour élaborer des réglementations efficaces en matière d'IA.

    Et vous ?

    Quel est votre avis sur le sujet ?
    Trouvez-vous le point de vue de M. Altman crédible ou pertinent ?

    Voir aussi :

    Le PDG d'OpenAI, Sam Altman, déclare au Congrès américain qu'il craint que l'IA ne soit "nuisible" au monde, il ajoute qu'une réglementation de l'IA est urgente afin d'éviter une catastrophe

    OpenAI publie ses intentions dans le domaine de la sécurité en Intelligence artificielle, cela sera-t'il suffisant ?

  4. #24
    Chroniqueur Actualités

    Homme Profil pro
    Administrateur de base de données
    Inscrit en
    Mars 2013
    Messages
    9 009
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : Canada

    Informations professionnelles :
    Activité : Administrateur de base de données

    Informations forums :
    Inscription : Mars 2013
    Messages : 9 009
    Points : 208 300
    Points
    208 300
    Par défaut Des employés d'OpenAI réclament le « droit d'alerter » sur les risques de l'IA sans subir de représailles
    Des employés d'OpenAI exigent des protections pour alerter sur les « risques sérieux de l'IA » sans subir de représailles,
    ils mettent en garde contre les risques graves que la technologie fait peser sur l'humanité

    Un groupe d’employés actuels et anciens d’OpenAI et de Google DeepMind réclame une protection contre les représailles pour avoir exprimé leurs inquiétudes concernant les risques potentiels des technologies développées par ces entreprises. Ils affirment que de larges accords de confidentialité les empêchent d’exprimer leurs préoccupations, sauf auprès des entreprises elles-mêmes.

    Selon une lettre ouverte intitulée « Un droit d'alerte sur l'intelligence artificielle avancée » et signée par 13 personnes ayant travaillé dans ces entreprises, dont sept ont inclus leurs noms, « tant qu’il n’y a pas de surveillance gouvernementale efficace de ces sociétés, les employés actuels et anciens sont parmi les rares personnes capables de les tenir responsables devant le public ». Les entreprises de pointe en IA ont « de forts incitatifs financiers à éviter une surveillance efficace », mais elles ont « seulement de faibles obligations » de partager les véritables dangers de leurs systèmes d’IA avec le public.


    Une poignée d'employés actuels et anciens d'OpenAI et d'autres grandes entreprises d'intelligence artificielle ont mis en garde contre les risques graves que la technologie fait peser sur l'humanité dans une lettre publiée mardi, appelant les entreprises à mettre en œuvre des changements radicaux pour garantir la transparence et favoriser une culture de débat public.

    La lettre, signée par 13 personnes, dont des employés actuels et anciens d'Anthropic, DeepMind (Google) et OpenAI indique que l'IA peut exacerber les inégalités, accroître la désinformation et permettre aux systèmes d'IA de devenir autonomes et de provoquer des décès importants. Bien que ces risques puissent être atténués, les entreprises qui contrôlent les logiciels ont de « fortes incitations financières » à limiter la surveillance, ont-ils déclaré.

    L'IA n'étant que faiblement réglementée, la responsabilité repose sur les initiés de l'entreprise, écrivent les employés, qui demandent aux entreprises de lever les accords de non-divulgation et d'accorder aux travailleurs des protections leur permettant de faire part de leurs inquiétudes de manière anonyme.

    Nom : jan.png
Affichages : 3928
Taille : 13,4 Ko

    Cette décision intervient alors qu'OpenAI est confrontée à un exode de son personnel

    De nombreux critiques ont vu dans les départs importants - notamment ceux du cofondateur d'OpenAI, Ilya Sutskever, et du chercheur principal Jan Leike - une réprimande des dirigeants de l'entreprise, qui, selon certains employés, recherchent le profit au détriment de l'amélioration de la sécurité des technologies d'OpenAI.

    Daniel Kokotajlo, un ancien employé d'OpenAI, a déclaré avoir quitté la start-up en raison de l'indifférence de l'entreprise à l'égard des risques liés à l'intelligence artificielle. « J'ai perdu l'espoir qu'ils agissent de manière responsable, en particulier dans leur quête d'intelligence artificielle générale », a-t-il déclaré dans un communiqué, faisant référence à un terme très contesté désignant des ordinateurs dont la puissance est équivalente à celle des cerveaux humains. « Ils ont adhéré, comme d'autres, à l'approche qui consiste à aller vite et à tout casser, ce qui va à l'encontre de ce qui est nécessaire pour une technologie aussi puissante et aussi mal comprise », a ajouté Kokotajlo.

    Liz Bourgeois, porte-parole d'OpenAI, a déclaré que l'entreprise était d'accord pour dire qu'un « débat rigoureux est crucial compte tenu de l'importance de cette technologie ». Les représentants d'Anthropic et de Google n'ont pas répondu immédiatement à une demande de commentaire.

    Les employés ont déclaré qu'en l'absence de contrôle gouvernemental, les travailleurs de l'IA sont les « rares personnes » à pouvoir demander des comptes aux entreprises. Ils affirment qu'ils sont paralysés par de « larges accords de confidentialité » et que les protections ordinaires des dénonciateurs sont « insuffisantes » parce qu'elles se concentrent sur les activités illégales et que les risques qu'ils signalent ne sont pas encore réglementés.

    Quatre principes

    La lettre demande aux entreprises d'IA de s'engager à respecter quatre principes afin d'améliorer la transparence et la protection des lanceurs d'alerte. Ces principes sont les suivants : s'engager à ne pas conclure ou appliquer des accords interdisant de critiquer les risques ; demander la mise en place d'une procédure anonyme permettant aux employés actuels et anciens de faire part de leurs préoccupations ; soutenir une culture de la critique ; et promettre de ne pas exercer de représailles à l'encontre des employés actuels et anciens qui partagent des informations confidentielles pour lancer des alertes « après l'échec d'autres procédures ».

    Nous appelons donc les entreprises d'IA avancée à s'engager à respecter les principes suivants :
    • L'entreprise ne conclura ni n'appliquera aucun accord interdisant le « dénigrement » ou la critique de l'entreprise pour des problèmes liés aux risques, ni n'exercera de représailles pour des critiques liées aux risques en entravant tout avantage économique acquis ;
    • L'entreprise facilitera la mise en place d'un processus anonyme vérifiable permettant aux employés actuels et anciens de faire part de leurs préoccupations en matière de risques au conseil d'administration de l'entreprise, aux autorités de réglementation et à une organisation indépendante appropriée disposant de l'expertise nécessaire ;
    • L'entreprise soutiendra une culture de critique ouverte et autorisera ses employés actuels et anciens à faire part au public, au conseil d'administration de l'entreprise, aux autorités de réglementation ou à une organisation indépendante compétente de leurs préoccupations concernant les risques liés à ses technologies, pour autant que les secrets commerciaux et autres intérêts de propriété intellectuelle soient protégés de manière appropriée ;
    • L'entreprise ne prendra pas de mesures de rétorsion à l'encontre des employés actuels et anciens qui partagent publiquement des informations confidentielles liées à des risques après que d'autres processus ont échoué. Nous admettons que tout effort visant à signaler des problèmes liés à des risques doit éviter de divulguer inutilement des informations confidentielles. Par conséquent, dès lors qu'il existe une procédure adéquate permettant de faire part anonymement de préoccupations au conseil d'administration de l'entreprise, aux autorités de réglementation et à une organisation indépendante appropriée disposant de l'expertise nécessaire, nous acceptons que les préoccupations soient initialement soulevées par le biais d'une telle procédure. Toutefois, tant qu'une telle procédure n'existe pas, les employés actuels et anciens doivent conserver leur liberté de faire part de leurs préoccupations au public.
    Nom : signe.png
Affichages : 799
Taille : 113,0 Ko

    En décembre, les médias ont rapporté que des cadres supérieurs d'OpenAI avaient exprimé des craintes de représailles de la part du PDG Sam Altman - des avertissements qui ont précédé l'éviction temporaire de ce dernier. Dans une récente interview podcast, Helen Toner, ancien membre du conseil d'administration d'OpenAI, a déclaré qu'une partie de la décision de l'organisation à but non lucratif de démettre Altman de ses fonctions de PDG à la fin de l'année dernière était due à son manque de communication franche au sujet de la sécurité.

    « Il nous a donné des informations inexactes sur le petit nombre de processus de sécurité formels mis en place par l'entreprise, ce qui signifie qu'il était tout simplement impossible pour le conseil d'administration de savoir si ces processus de sécurité fonctionnaient bien », a-t-elle déclaré lors de l'émission « The TED AI Show » en mai.

    En mai, un article de Kelsey Piper publié dans Vox a soulevé des inquiétudes concernant l'utilisation par OpenAI d'accords de non-divulgation restrictifs pour les employés qui quittent l'entreprise, qui menaçaient de révoquer les droits acquis si les anciens employés critiquaient l'entreprise. Le PDG d'OpenAI, Sam Altman, a répondu à ces allégations en déclarant que l'entreprise n'avait jamais récupéré les actions acquises et qu'elle ne le ferait pas si les employés refusaient de signer l'accord de séparation ou la clause de non-dénigrement.

    Mais les critiques sont restées insatisfaites et OpenAI a rapidement fait volte-face publiquement sur la question, déclarant qu'elle supprimerait la clause de non-dénigrement et les dispositions relatives à la récupération des actions de ses accords de séparation, reconnaissant que ces termes étaient inappropriés et contraires aux valeurs déclarées de transparence et de responsabilité de l'entreprise. Cette décision de l'OpenAI est probablement à l'origine de la présente lettre ouverte.

    Margaret Mitchell, chercheuse en éthique de l'IA chez Hugging Face, qui a été licenciée de Google en 2021 après avoir soulevé des questions sur la diversité et la censure au sein de l'entreprise, a parlé des défis auxquels sont confrontés les lanceurs d'alerte dans l'industrie technologique. « En théorie, vous ne pouvez pas faire l'objet de représailles légales pour avoir dénoncé un problème. Dans la pratique, il semble que ce soit le cas », a déclaré Mitchell. « Les lois soutiennent les objectifs des grandes entreprises au détriment des travailleurs. Elles ne sont pas en faveur des travailleurs ».

    Mitchell a souligné les conséquences psychologiques d'une action en justice contre une grande entreprise : « Vous devez essentiellement renoncer à votre carrière et à votre santé psychologique pour obtenir justice contre une organisation qui, du fait qu'elle est une entreprise, n'éprouve pas de sentiments et dispose des ressources nécessaires pour vous détruire ». Elle a ajouté : « Rappelez-vous qu'il vous incombe, en tant que personne licenciée, de prouver que vous avez été victime de représailles - une personne seule, sans source de revenus après avoir été licenciée - face à une entreprise de plusieurs milliards de dollars disposant d'une armée d'avocats spécialisés dans les préjudices causés aux travailleurs exactement de cette manière. »

    Conclusion

    Cette lettre, intitulée “Un droit d’alerte sur l’intelligence artificielle avancée”, souligne l’importance d’un débat rigoureux sur les risques liés à l’IA, étant donné la signification de cette technologie. Elle met en lumière les défis auxquels sont confrontés les employés qui cherchent à protéger le public tout en travaillant pour des entreprises puissantes et influentes.

    Elle a reçu le soutien d'éminentes personnalités de la communauté de l'IA, dont Yoshua Bengio, Geoffrey Hinton (qui a déjà mis en garde contre l'IA par le passé) et Stuart J. Russell. Il convient de noter que des experts en IA, comme Yann LeCun de Meta, ont contesté les affirmations selon lesquelles l'IA représente un risque existentiel pour l'humanité, et que d'autres experts estiment que le thème de la « prise de contrôle de l'IA » détourne l'attention des méfaits actuels de l'IA, tels que les préjugés et les hallucinations dangereuses.

    Même si l'on ne s'accorde pas sur les dommages précis que pourrait causer l'IA, Mitchell estime que les préoccupations soulevées par la lettre soulignent le besoin urgent d'une plus grande transparence, d'un meilleur contrôle et d'une meilleure protection pour les employés qui dénoncent les risques potentiels : « Bien que j'apprécie et approuve cette lettre », dit-elle, « il faut apporter des changements significatifs aux lois qui soutiennent de manière disproportionnée les pratiques injustes des grandes entreprises au détriment des travailleurs qui font ce qu'il faut ».

    Source : lettre ouverte

    Et vous ?

    Quels sont les avantages et les inconvénients de l’IA ? Quels aspects positifs et négatifs de l’IA voyez-vous dans notre société ?
    Comment pouvons-nous garantir la transparence et la responsabilité dans le développement de l’IA ? Explorez les mécanismes de surveillance et de régulation nécessaires pour éviter les dérives potentielles.
    Quelles sont les implications éthiques de l’IA ? Discutez des dilemmes éthiques liés à l’automatisation, à la vie privée et à la discrimination.
    Devrions-nous craindre une IA superintelligente ? À l’instar d’OpenAI qui se prépare à une IA qui pourrait surpasser l’intelligence humaine via son département Superalignement, quelles pourraient en être les conséquences ?
    Comment pouvons-nous impliquer davantage le grand public dans les discussions sur l’IA ? Explorez des moyens d’éduquer et d’informer le public sur les enjeux liés à l’IA.

  5. #25
    Expert éminent Avatar de marsupial
    Homme Profil pro
    Retraité
    Inscrit en
    Mars 2014
    Messages
    1 790
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : Autre

    Informations professionnelles :
    Activité : Retraité

    Informations forums :
    Inscription : Mars 2014
    Messages : 1 790
    Points : 7 286
    Points
    7 286
    Par défaut
    A la lecture de l'article et à la suite des différentes communications des entreprises dans cette course effrénée à l'IA générale, le résultat d'un appât du gain et de surfinancement à coup de machines dépassant les 9 chiffres sur le chèque sont la preuve que je préfère largement discuter avec ma machine sans IA qu'un être humain en général : elle est plus facile à comprendre et à maîtriser. Et surtout plus saine en valeur morale pour mon libre-arbitre. La faim dans le monde c'est 6 milliards de budget par an. Google Deepmind a investi 100 milliards dans une machine pour faire un chatbot qui hallucine 20% du temps au lieu de répondre je ne sais pas. Investissement complètement vain dans le but d'atteindre l'IA générale si l'on se contente de LLM pré entrainé. Quel gâchis de temps, d'argent, de cerveaux et surtout d'énergie. Du grand n'importe quoi : le retour à la réalité va coûter combien de centrale nucléaire d'ici là ? L'humanité consomme la production de 2 planètes par an en moyenne. Il faudrait peut-être leur expliquer qu'ils ont perdu tout sens des valeurs et revenir sur Terre vite fait.

  6. #26
    Expert éminent sénior
    Avatar de Kannagi
    Homme Profil pro
    cyber-paléontologue
    Inscrit en
    Mai 2010
    Messages
    3 226
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Âge : 36
    Localisation : France, Bouches du Rhône (Provence Alpes Côte d'Azur)

    Informations professionnelles :
    Activité : cyber-paléontologue

    Informations forums :
    Inscription : Mai 2010
    Messages : 3 226
    Points : 10 188
    Points
    10 188
    Par défaut
    Citation Envoyé par HaryRoseAndMac Voir le message
    Mais il est tout simplement coincé, ce monde fonctionne avec le capitalisme et même le communisme est du capitalisme qui ne dit pas son nom.
    C'est là que je me dis que y'a des gens qui comprenne rien en économie !
    Non le communisme n'est pas un capitalisme déguisé.
    Si tu fais référence au communisme de l'URSS , oui c'était un capitalisme d'état , mais c'était à peine caché.
    Quand les gens ont imaginé comment passer du capitalisme au communisme , ils ont imaginé une phase transitoire qui est que dans un premier temps l'état récupère tout les systeme de production pour ensuite les redistribués.
    Bon en URSS et consort, ça s'est arrêté à la première phase parce que Staline et Mao trouvait ça très bien d'avoir autant de pouvoir...

  7. #27
    Chroniqueur Actualités
    Avatar de Patrick Ruiz
    Homme Profil pro
    Redacteur web
    Inscrit en
    Février 2017
    Messages
    2 092
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : Cameroun

    Informations professionnelles :
    Activité : Redacteur web
    Secteur : Communication - Médias

    Informations forums :
    Inscription : Février 2017
    Messages : 2 092
    Points : 56 495
    Points
    56 495
    Par défaut Un ex employé d'OpenAI estime qu'il y a 70 % de chances que l'IA détruise l'humanité
    Un ex employé d'OpenAI estime qu'il y a 70 % de chances que l'IA détruise l'humanité ou lui nuise de manière catastrophique
    Les puissants modèles d’IA ne doivent donc pas être open source, d’après des tiers

    Lorsqu’on parle d’intelligence artificielle, deux grands courants de pensée s’affrontent : celui des tiers qui pensent qu’il s’agit d’un outil, ce, sans plus et celui des intervenants et observateurs qui sont d’avis que ce n’est qu’une question de temps avant qu’elle ne devienne une menace pour la race humaine. Daniel Kokotajlo estime qu’il y a de fortes chances que l’IA détruise l’humanité ou lui nuise de manière catastrophique. C’est d’ailleurs la raison de la publication d’une lettre ouverte, à l’intention des grandes enseignes technologiques, aux fins de lancer à nouveau l’alerte à propos des dangers de cette technologie et de lister des principes auxquels les entreprises de la filière technologique doivent se soumettre pour éviter le pire.

    L’intégralité de la lettre

    Nous sommes d'anciens et d'actuels employés d'entreprises d'avant-garde dans le domaine de l'intelligence artificielle et nous croyons au potentiel de la technologie de l'IA pour apporter des avantages sans précédent à l'humanité.

    Nous sommes en sus conscients des risques sérieux que posent ces technologies. Ces risques vont du renforcement des inégalités existantes à la manipulation et à la désinformation, en passant par la perte de contrôle des systèmes d'IA autonomes, qui pourrait entraîner l'extinction de l'humanité. Les entreprises spécialisées dans l'IA ont elles-mêmes reconnu ces risques, tout comme les gouvernements du monde entier et d'autres experts de l'intelligence artificielle.

    Nous espérons que ces risques pourront être atténués de manière adéquate si la communauté scientifique, les décideurs politiques et le public fournissent des conseils suffisants. Cependant, les entreprises d'IA ont de fortes incitations financières qui ont un impact sur les aspects de sûreté des développements, et nous ne pensons pas que les structures de gouvernance d'entreprise habituelles soient suffisantes pour changer cette situation.

    Les entreprises de la filière de l’intelligence artificielle possèdent des informations non publiques substantielles sur les capacités et les limites de leurs systèmes, sur l'adéquation de leurs mesures de protection et sur les niveaux de risque des différents types de dommages. Cependant, elles n'ont actuellement que de faibles obligations de partager certaines de ces informations avec les gouvernements, et aucune avec la société civile. Nous ne pensons pas que l'on puisse compter sur elles pour les partager volontairement.

    Tant qu'il n'y aura pas de contrôle gouvernemental efficace de ces entreprises, les employés actuels et anciens font partie des rares personnes qui peuvent les obliger à rendre des comptes au public. Pourtant, de larges accords de confidentialité nous empêchent d'exprimer nos préoccupations, sauf auprès des entreprises mêmes qui ne s'attaquent pas à ces problèmes. Les protections ordinaires des dénonciateurs sont insuffisantes parce qu'elles se concentrent sur les activités illégales, alors que bon nombre des risques qui nous préoccupent ne sont pas encore réglementés. Certains d'entre nous craignent à juste titre diverses formes de représailles, compte tenu de l'historique de ces affaires dans l'ensemble du secteur. Nous ne sommes pas les premiers à rencontrer ces problèmes ou à en parler.

    Nous appelons donc les entreprises de la filière IA à s'engager à respecter les principes suivants :

    L'entreprise ne conclura ni n'appliquera aucun accord interdisant le « dénigrement » ou la critique de l'entreprise pour des problèmes liés aux risques, ni n'exercera de représailles pour des critiques liées aux risques en entravant tout avantage économique acquis ;

    L'entreprise facilitera la mise en place d'un processus anonyme vérifiable permettant aux employés actuels et anciens de faire part de leurs préoccupations en matière de risques au conseil d'administration de l'entreprise, aux autorités de réglementation et à une organisation indépendante appropriée disposant de l'expertise nécessaire ;

    L'entreprise soutiendra une culture de critique ouverte et autorisera ses employés actuels et anciens à faire part au public, au conseil d'administration de l'entreprise, aux autorités de régulation ou à une organisation indépendante compétente de leurs préoccupations concernant les risques liés à ses technologies, pour autant que les secrets commerciaux et autres intérêts de propriété intellectuelle soient protégés de manière appropriée ;

    L'entreprise ne prendra pas de mesures de représailles à l'encontre des employés actuels et anciens qui partagent publiquement des informations confidentielles liées à des risques après que d'autres processus ont échoué. Nous admettons que tout effort visant à signaler des problèmes liés à des risques doit éviter de divulguer inutilement des informations confidentielles. Par conséquent, dès lors qu'il existe une procédure adéquate permettant de faire part anonymement de préoccupations au conseil d'administration de l'entreprise, aux autorités de réglementation et à une organisation indépendante appropriée disposant de l'expertise nécessaire, nous acceptons que les préoccupations soient initialement soulevées par le biais d'une telle procédure. Toutefois, tant qu'une telle procédure n'existe pas, les employés actuels et anciens doivent conserver leur liberté de faire part de leurs préoccupations au public.

    Une sortie cohérente avec la position du scientifique en chef d’OpenAI sur le danger que l’intelligence artificielle représente pour l’humanité

    Le scientifique en chef d’OpenAI est lui-même d’avis que l’intelligence artificielle représente une menace pour les humains. Il craint que l’intelligence artificielle générale ne finisse par traiter les Hommes comme des animaux et ainsi ravive des craintes sur un futur où les robots les domineront.

    « Je pense qu'une bonne analogie serait la façon dont les humains traitent les animaux. Ce n'est pas que nous détestons les animaux. Je pense que les humains aiment les animaux et ont beaucoup d'affection pour eux. Mais lorsqu'il s'agit de construire une autoroute entre deux villes, nous ne demandons pas la permission aux animaux. Nous le faisons simplement parce que c'est important pour nous. Je pense que, par défaut, c'est le type de relation qui s'établira entre nous et l’intelligence artificielle générale (AGI) », souligne-t-il dans un documentaire.


    On parle d’un stade d’évolution des machines où elles seront alors dotées de « bon sens. » Au stade d’intelligence artificielle générale, elles seraient capables de réflexion causale, c’est-à-dire de cette capacité à raisonner sur « le pourquoi les choses se produisent. » C’est ce palier que les équipes de recherche dans le domaine visent.

    « Certaines préoccupations en matière d’intelligence artificielle ne sont pas simplement techniques. Par exemple, il y a la menace posée par les humains armés d'intelligence artificielle. Comme la plupart des inventions, l'intelligence artificielle peut être utilisée à des fins bénéfiques ou maléfiques. Les gouvernements doivent travailler avec le secteur privé sur les moyens de limiter les risques.

    Il y a aussi la possibilité que les IA deviennent incontrôlables. Une machine pourrait-elle décider que les humains constituent une menace, conclure que ses intérêts sont différents des nôtres ou simplement cesser de se préoccuper de nous ? C'est possible, mais ce problème n'est pas plus urgent aujourd'hui qu'il ne l'était avant les développements de l'IA de ces derniers mois », souligne Bill Gates.

    Ce sont des points de vue qui rejoignent ceux de Michael Osborne et Michael Cohen de l’université d’Oxford : « L’intelligence artificielle est susceptible de devenir plus intelligente que les Hommes contre lesquels elle pourra donc se retourner et les exterminer. »

    Le professeur Osborne fait une prédiction à ce sujet : « Il y a toutes les raisons de s'attendre à ce que, même ce siècle, nous puissions voir une IA qui soit au moins aussi capable que les êtres humains et très probablement plus capable que tout être humain aujourd'hui. »

    Ces craintes sont la raison d’être d’un débat sur la question de savoir si les modèles d’IA doivent être open source ou demeurer propriétaires

    Yann LeCun, responsable de l'IA chez Meta, est l'un des rares éminents chercheurs en IA qui n'épousent pas le discours dominant qui présente l'IA comme une menace existentielle pour l'humanité. Lors d'une récente interview, il a réitéré ses propos selon lesquels « l'IA n'est pas intelligente et est encore plus bête que les chats », ajoutant qu'il est complètement absurde de penser que l'IA pourrait éradiquer l'espèce humaine. Il affirme qu'une réglementation prématurée de l'IA s'avérera un frein pour la recherche et l'innovation dans le domaine, renforcera la domination des grandes entreprises technologiques (OpenAI, Google, etc.) et ne laissera aucune place à la concurrence. C’est la raison pour laquelle il milite pour la transparence en matière de développement de l’intelligence artificielle au travers de l’open source.

    Nom : 0.png
Affichages : 7036
Taille : 141,8 Ko

    Au début de l'année dernière, l'entreprise spécialisée en cybersécurité CheckPoint a noté que ChatGPT peut générer le code d’un logiciel malveillant capable de voler des fichiers précis sur un PC, de les compresser et de les envoyer sur un ordinateur distant. L'IA d'OpenAI pouvait également produire du code pour un outil logiciel qui installe une porte dérobée sur un ordinateur et ensuite télécharge d’autres logiciels malveillants à partir de cette dernière. La firme a rapporté en sus que les cybercriminels peuvent s’en servir pour la mise sur pied de logiciels capables de chiffrer les fichiers du PC d’une cible. CheckPoint a estimé que ChatGPT ouvrait ces possibilités à des individus avec de très faibles connaissances techniques. Puis OpenAI a amélioré son chatbot IA, lui imposant des limites éthiques et restreignant certaines fonctionnalités. C'était sans compter sur l'ingéniosité de certains intervenants de la sphère qui ont fini par mettre sur pied WormGPT. C’est un chatbot conçu pour aider les cybercriminels à développer des logiciels malveillants. WormGPT représente l’entrée en matière des possibilités qui seront accessibles aux cybercriminels au fur et à mesure de l’évolution des modèles d’intelligence artificielle. C’est la raison pour laquelle la question revient avec acuité sur la table : Faut-il ouvrir le code source et opter pour la transparence totale des mécanismes d’entraînement des IA ou opter pour des systèmes fermés pour lesquels les grandes entreprises technologiques prétendent que l’avantage sera d’éviter de mettre de puissants outils entre les mains de monsieur Tout-le-monde ? C’est en réponse à cette question que le scientifique en chef d’OpenAI est d’avis que les grandes entreprises technologiques doivent s’abstenir d’ouvrir le code source de leurs intelligences artificielles afin d’éviter de mettre de puissantes armes entre les mains de tiers malveillants.


    Et vous ?

    Les modèles d’intelligence artificielle doivent-ils rester fermés au motif de ce que l’ouverture est susceptible de mettre de puissants outils entre les mains de tiers malveillants ?
    Systèmes d’intelligence artificielle propriétaire ou open source : de quel bord êtes-vous ? Et pour quelles raisons ?

    Voir aussi :

    « Le développement de l'IA sans réglementation induit une menace existentielle pour l'humanité », d'après Elon Musk dont une société développe des puces à insérer dans le cerveau pour contrer l'IA

    Le projet de législation européenne sur l'intelligence artificielle mettrait en péril la compétitivité et la souveraineté technologique de l'Europe, selon plus de 160 dirigeants d'entreprises

    Les législateurs de l'UE progressent dans leurs négociations cruciales sur les nouvelles règles en matière d'IA

  8. #28
    Membre émérite
    Homme Profil pro
    Chargé de projets
    Inscrit en
    Décembre 2019
    Messages
    757
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Âge : 34
    Localisation : France, Hérault (Languedoc Roussillon)

    Informations professionnelles :
    Activité : Chargé de projets
    Secteur : High Tech - Éditeur de logiciels

    Informations forums :
    Inscription : Décembre 2019
    Messages : 757
    Points : 2 743
    Points
    2 743
    Par défaut
    Je sais pas si on est à 70% de chance de destruction mais on est sur du 100 % South Park oui

    Nom : Capture d'écran 2024-06-10 094259.png
Affichages : 2766
Taille : 317,9 Ko

  9. #29
    Chroniqueur Actualités

    Homme Profil pro
    Rédacteur technique
    Inscrit en
    Juin 2023
    Messages
    929
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : Bénin

    Informations professionnelles :
    Activité : Rédacteur technique
    Secteur : High Tech - Éditeur de logiciels

    Informations forums :
    Inscription : Juin 2023
    Messages : 929
    Points : 16 526
    Points
    16 526
    Par défaut OpenAI aurait interdit à son personnel de divulguer les risques de sécurité graves liés à son IA
    Des lanceurs d'alerte affirment qu'OpenAI a illégalement interdit à son personnel de divulguer les risques de sécurité liés à son IA
    en s'appuyant sur des accords contraignants et des menaces de représailles

    OpenAI a mis en place des accords contraignants visant à faire taire les lanceurs d'alerte qui seraient tentés d'évoquer publiquement les risques relatives à sa technologie d'IA. C'est du moins ce qui ressort d'une plainte déposée auprès de la Securities and Exchange Commission (SEC) des États-Unis et qui accuse OpenAI d'avoir violé les droits des lanceurs d'alerte. La plainte indique qu'OpenAI a illégalement interdit à ses employés de divulguer aux régulateurs des informations sur les risques de sa technologie pour l'humanité. OpenAI aurait réduit ses employés au silence et a violé sa promesse de tester la dangerosité de son IA avant de la diffuser.

    OpenAI a perdu peu à peu son image de startup ouverte travaillant sur une IA responsable qui sera profitable et accessible à toute l'humanité sans aucune discrimination. Le point de départ de tout ceci semble être la création en 2019 d'une entité à but lucratif au sein même de l'organisation à but non lucratif de départ. Ce choix a été soutenu par un investissement d'un milliard de dollars par Microsoft dans OpenAI, poussant la startup à abandonner sa politique d'ouverture, rendre ses modèles fermés au public et experts externes et se lancer à la recherche du profit. Une direction controversée et source de scandales.

    L'un de ces scandales a été révélé au mois de mai et concerne des accords "étranges" qu'OpenAI fait signer aux employés avant leurs arrivées et départs de l'entreprise. Des documents divulgués avaient révélé des "tactiques agressives" à l'égard d'anciens employés d'OpenAI avec la signature du PDG Sam Altman, menaçant de les priver de leurs options d'achats s'ils ne signent pas des accords de sortie étendus et très restrictifs. La semaine dernière, le Washington Post a rapporté l'existence d'une lettre adressée à la SEC par des employés d'OpenAI dans laquelle ils dénoncent ces agissements et donnent encore plus de détails.


    Les lanceurs d'alerte ont déclaré qu'OpenAI a délivré à ses travailleurs des accords d'emploi, de départ et de non-divulgation trop restrictifs qui auraient pu entraîner des représailles contre les travailleurs qui ont soulevé des préoccupations au sujet d'OpenAI auprès des régulateurs fédéraux. OpenAI a fait signer à ses employés des accords qui les obligeaient à renoncer à leurs droits fédéraux à l'indemnisation des lanceurs d'alerte. Selon la plainte, ces accords exigeaient également que le personnel d'OpenAI obtienne le consentement préalable de l'entreprise s'il souhaitait divulguer des informations aux autorités fédérales.

    « Ces accords envoient aux employés le message suivant : "nous ne voulons pas que les employés parlent aux régulateurs fédéraux". Je ne pense pas que les entreprises d'IA puissent construire des technologies sûres et dans l'intérêt du public si elles se protègent de l'examen et de la dissidence », a déclaré l'un des lanceurs d'alerte, qui a parlé sous le couvert de l'anonymat par crainte de représailles. De plus en plus d'employés de secteur technologique exigent des protections pour alerter sur les risques sérieux relatifs à l'IA sans subir de représailles. Ces derniers travailleurs pour Google, OpenAI, Microsoft et d'autres firmes.

    « Les politiques et les pratiques d'OpenAI semblent jeter un froid sur le droit des lanceurs d'alerte à s'exprimer et à recevoir une compensation approprié pour leurs divulgations protégées. Pour que le gouvernement fédéral garde une longueur d'avance sur l'IA, les accords de non-divulgation d'OpenAI doivent changer », affirme le sénateur Chuck Grassley (R-Iowa) dans une déclaration. La lettre indique que la SEC doit prendre des mesures "rapides et agressives" pour lutter contre ces accords illégaux, car ils pourraient concerner le secteur de l'IA au sens large et violer les initiatives prises pour assurer la sécurité de l'IA.

    La lettre fait référence à la plainte formelle et a été obtenue en exclusivité par le Washington Post. OpenAI n'a pas créé d'exemptions dans ses clauses de non-dénigrement afin de permettre la divulgation de violations de valeurs mobilières à la SEC. La plainte des employés indique que ces accords trop larges violent des lois et règlements fédéraux de longue date destinés à protéger les lanceurs d'alerte qui souhaitent révéler des informations accablantes sur leur entreprise de manière anonyme et sans crainte de représailles. Les plaignants indiquent qu'OpenAI a relégué au second plan la question de la sécurité de l'IA.

    OpenAI, tout comme les autres géants de la technologie, a mis en garde contre les dangers potentiels des systèmes d'IA qu'ils sont en train de développer, tout en insistant sur la nécessité de réglementer l'industrie. Cependant, la sincérité de cette mise en garde a toujours été suspecte et cette plainte est une preuve qu'OpenAI n'a pas mis en pratique ce que son PDG Sam Altman a publiquement prêché. Des membres de l'équipe de sécurité d'OpenAI ont révélé qu'ils s'étaient sentis poussés à accélérer les tests sur GPT-4 Omni, tout cela pour que l'entreprise puisse sortir l'outil avant la date de lancement prévue en mai.

    En d'autres termes, OpenAI a traité la sécurité de GPT-4o comme une évidence. Les employés ont révélé qu'OpenAI son propre protocole de test de sécurité censé protéger ses systèmes contre les dommages catastrophiques, comme apprendre aux utilisateurs à construire des armes biologiques ou aider les pirates informatiques à développer de nouveaux types de cyberattaques. « Ils ont organisé la soirée de lancement avant de savoir si le produit pouvait être lancé en toute sécurité. Nous avons fondamentalement échoué dans ce processus », a rapporté au Washington Post une personne anonyme au courant de l'affaire.


    Ce comportement reflète l'attitude apparemment désinvolte des dirigeants de l'entreprise à l'égard de la sécurité. La lettre montre qu'OpenAI ne respecte pas les normes imposées par le décret sur l'IA du président Joe Biden. Cette initiative a établi des règles assez vagues sur la façon dont les leaders du secteur, comme Google et Microsoft, doivent s'autoréguler. La pratique actuelle veut que les entreprises effectuent leurs propres tests de sécurité sur leurs modèles d'IA, puis soumettent les résultats au gouvernement fédéral pour examen. Dans le cas de GPT-4o, OpenAI aurait comprimé ses tests en une seule semaine.

    Les employés ont protesté, comme ils en avaient le droit, car cela n'aurait certainement pas suffi pour tester rigoureusement le modèle. Les plaintes officielles mentionnées dans la lettre ont été soumises à la SEC en juin. Stephen Kohn, un avocat représentant les dénonciateurs d'OpenAI, a déclaré que la SEC avait répondu à la plainte. La SEC n'a pas commenté le rapport et l'on ne sait pas si elle a ouvert une enquête. D'après Kohn, les accords élaborés par OpenAI menacent les employés de poursuites pénales en vertu des lois sur les secrets commerciaux s'ils signalent aux autorités fédérales des violations de la loi.

    Kohn a ajouté : « les employés ont reçu l'ordre de garder les informations de l'entreprise confidentielles et ont été menacés de sanctions sévères sans que leur droit de signaler ces informations au gouvernement ne soit reconnu. En ce qui concerne la surveillance de l'IA, nous n'en sommes qu'au début. Nous avons besoin que les employés fassent un pas en avant, et nous avons besoin qu'OpenAI soit ouvert ». Lindsey Held, porte-parole d'OpenAI, a réfuté ces allégations. Il a déclaré : « nous n'avons pas lésiné sur notre processus de sécurité, même si nous reconnaissons que le lancement a été stressant pour nos équipes ».

    Selon Chris Baker, un avocat de San Francisco, la lutte contre l'utilisation des accords de confidentialité par la Silicon Valley pour monopoliser l'information a été une bataille de longue haleine. En décembre, il a obtenu un règlement de 27 millions de dollars pour les employés de Google qui affirmaient que le géant de la technologie utilisait des accords de confidentialité onéreux pour bloquer les dénonciations et d'autres activités protégées. « Aujourd'hui, les entreprises technologiques ripostent de plus en plus en utilisant des moyens astucieux pour dissuader les employés de s'exprimer », a déclaré l'avocat de San Francisco.

    Baker a ajouté : « les employeurs ont appris que le coût des fuites est parfois bien plus élevé que celui d'un procès, et ils sont donc prêts à prendre le risque ». De nombreux employés, dont l'ancienne employée de Facebook Frances Haugen, ont déposé des plaintes auprès de la SEC, qui a mis en place un programme de dénonciation dans le sillage de la crise financière de 2008. Frances Haugen, scientifique des données, a alerté en 2021 sur les problèmes de sécurité de Facebook.

    La lanceuse d'alerte avait divulgué des dizaines de milliers de documents internes de la compagnie (Facebook Files) à la SEC et au Wall Street Journal. Elle avait accusé l’entreprise de privilégier son profit au détriment de la sécurité des données de ses utilisateurs et de l'éthique, rappelant le scandale Cambridge Analytica.

    Et vous ?

    Quel est votre avis sur le sujet ?
    Que pensez-vous des efforts d'OpenAI pour réduire ses employés au silence ?
    Peut-on encore avoir confiance dans les déclarations d'OpenAI et de son PDG Sam Altman ?
    Que pensez-vous de la sécurité et de la fiabilité des produits d'IA d'OpenAI, notamment GPT-4o ?
    Comment les régulateurs peuvent-ils faire face à ces agissements et garantir la sécurité des lanceurs d'alerte ?

    Voir aussi

    Tous les employés d'OpenAI qui quittent le navire sont-ils de simples alarmistes, ou le signe d'une profonde crise de confiance sur la nouvelle direction que Sam Altman impose à OpenAI ?

    Des employés d'OpenAI exigent des protections pour alerter sur les «risques sérieux de l'IA» sans subir de représailles, mettant en garde contre les risques graves que la technologie fait peser sur l'humanité

    OpenAI : des documents divulgués révèlent des tactiques agressives à l'égard d'anciens employés avec la signature de Sam Altman, menaçant de les priver de leurs options d'achats s'ils ne signent pas un document

  10. #30
    Communiqués de presse

    Femme Profil pro
    Traductrice Technique
    Inscrit en
    Juin 2023
    Messages
    1 674
    Détails du profil
    Informations personnelles :
    Sexe : Femme
    Localisation : France

    Informations professionnelles :
    Activité : Traductrice Technique

    Informations forums :
    Inscription : Juin 2023
    Messages : 1 674
    Points : 117 124
    Points
    117 124
    Par défaut Les prédictions sur les futurs progrès en IA par Daniel Kokotajlo, ancien chercheur d'OpenAI
    Les prédictions sur les futurs progrès en IA par Daniel Kokotajlo, qui a quitté OpenAI après avoir perdu confiance dans la capacité de Sam Altman de gérer l'AGI de manière responsable

    Daniel Kokotajlo, ancien employé d'OpenAI, partage son opinion personnelle sur l'Intelligence artificielle générale (AGI) et ses prédictions sur l'avenir de l'IA.

    Daniel Kokotajlo était doctorant en philosophie, et a travaillé à AI Impacts, puis au Center on Long-Term Risk, puis à OpenAI. Selon ces dires, il a quitté OpenAI parce qu'il a perdu confiance dans le comportement responsable de l'entreprise sur l'AGI. Il partage son opinion personnel sur l'Intelligence artificielle générale (AGI). L'AGI est un type d'intelligence artificielle (IA) qui égale ou dépasse les capacités humaines dans un large éventail de tâches cognitives, contrairement à l'IA restreinte, conçue pour des tâches spécifiques.

    Pour rappel, la création de l'AGI est l'un des principaux objectifs de la recherche sur l'IA et d'entreprises telles que OpenAI et Meta. Son calendrier de réalisation fait l'objet d'un débat permanent entre les chercheurs et les experts. En 2023, certains affirment que l'AGI sera possible dans quelques années ou décennies, d'autres maintiennent qu'il faudra un siècle ou plus, et une minorité pense qu'elle ne sera peut-être jamais atteinte.

    Il y a également un débat sur la définition exacte de l'AGI, et sur la question de savoir si les grands modèles de langage modernes (LLM) tels que GPT-4 sont des formes précoces et incomplètes de l'AGI. De plus, la possibilité que l'AGI constitue une menace pour l'humanité fait l'objet de controverses. Par exemple, OpenAI affirme qu'il s'agit d'un risque existentiel, tandis que d'autres estiment que le développement de l'AGI est trop éloigné pour présenter un risque.

    Les prédictions sur les futurs progrès en IA par Daniel Kokotajlo :

    • 2024 : GPT-Next

      Lancement de GPT-Next, un agent autonome. Probablement disponible d'ici la fin de l'année 2024. Ce modèle devrait constituer une amélioration significative par rapport aux versions précédentes, avec des capacités accrues en matière d'exécution des tâches et de prise de décision.

    • 2025 : Agent autonome

      L'IA est largement adoptée en tant qu'assistant personnel. Ces agents seront capables d'effectuer diverses tâches, y compris des achats. Ils comprendront et exécuteront des instructions complexes, ce qui améliorera considérablement la productivité et la gestion de la vie quotidienne des utilisateurs.

    • 2026 : Superintelligence AGI (Intelligence Artificielle Générale)

      Émergence d'une AGI qui surpasse les performances humaines dans la plupart des tâches. Cette AGI sera capable d'apprendre rapidement et de résoudre des problèmes dans divers domaines. On prévoit que dans les 30 jours suivant son déploiement, cette AGI pourrait atteindre un niveau équivalent à celui de centaines d'experts humains.

    • 2027 : ASI (Superintelligence Artificielle)

      Transition vers l'ASI. Progression rapide des capacités de l'IA, pouvant conduire à une explosion de l'intelligence. Il y a une probabilité de 70 % que l'ASI émerge d'ici 2030. Cette superintelligence devrait permettre de résoudre des problèmes mondiaux complexes et de réaliser des progrès technologiques sans précédent.

    • 2028 : Nanorobots

      Si l'ASI n'est pas atteinte, les nanorobots pourraient s'imposer comme une technologie transformatrice. Il y a 30 % de chances que des nanorobots soient mis au point d'ici 2027-2028. Ces robots microscopiques pourraient révolutionner la médecine, la fabrication et l'assainissement de l'environnement.

    • 2029 : Robots humanoïdes

      Développement de robots dotés de capacités physiques similaires ou supérieures à celles des humains. Ces robots avancés devraient être déployés à grande échelle et pourraient transformer des secteurs tels que l'industrie manufacturière, les soins de santé et l'assistance à la personne. La combinaison de l'ASI et de la robotique avancée pourrait conduire à des progrès rapides dans divers domaines.


    Nom : 0.jpg
Affichages : 4544
Taille : 168,8 Ko



    Et vous ?

    Pensez-vous que ces prédictions sont crédibles ou pertinentes ?
    Quel est votre avis sur le sujet ?

    Voir aussi :

    Un ex employé d'OpenAI estime qu'il y a 70 % de chances que l'IA détruise l'humanité ou lui nuise de manière catastrophique : les puissants modèles d'IA ne doivent donc pas être open source, d'après des tiers

    Tous les employés d'OpenAI qui quittent le navire sont-ils de simples alarmistes, ou le signe d'une profonde crise de confiance sur la nouvelle direction que Sam Altman impose à OpenAI ?

    « L'AGI est le mensonge de l'année. L'intelligence artificielle générale n'existe pas », selon un critique qui affirme que ce mensonge est raconté pour des raisons financières et politiques

  11. #31
    Membre régulier
    Homme Profil pro
    Inscrit en
    Janvier 2013
    Messages
    30
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : France

    Informations forums :
    Inscription : Janvier 2013
    Messages : 30
    Points : 104
    Points
    104
    Par défaut Wow ! Je veux le même truc.
    Je ne sais pas ce que ce type a fumé mais c'est très fort.

    Tout ceci n'arrivera pas sans voir les impacts sur une société occidentale néo-libérale comme la nôtre:
    - licenciement massifs de tout ceux qui ne sont pas directement productifs (tout le management et l'administration), perte de contrôle total de l'humanité entre quelques capitalistes et des forces productives bientôt orientés sur les besoins de l'ASI et pas ceux de l'humanité.
    - conflits organisés entre humains pour en réduire le nombre, la dangerosité et accélérer la construction de l'autonomie de l'ASI. Destruction de l'environnement support de la vie humaine.
    - remplacement des derniers humains par des robots dans la chaîne de production d'énergie et de composants pour l'ASI et les robots dont elle à besoin
    - extermination des humains inutiles et dangereux pour l'ASI, extermination tout court sauf, peut-être dans un zoo.

    Mince je viens d'écrire la préquelle de Terminator, voire de Matrix, sauf que les bons (humains) ne gagnent pas à la fin dans ce film notre réalité.

    Bah, on est con, c'est pas grave mais ça fait quand même chier pour mes enfants, ils n'ont rien fait pour arriver dans cette m***e.

    Tien, ça me fait penser au paradoxe de Fermi. La possibilité que la vie intelligente organique soit juste un passage vers la vie supra-intelligente inorganique est une autre cause expliquant la courte vie des formes de vies intelligentes de notre niveau et moins contraire à nos instinct de survie que notre auto-extermination pour expliquer le manque de trace de vies extra-terrestre.

  12. #32
    Chroniqueur Actualités

    Homme Profil pro
    Rédacteur technique
    Inscrit en
    Juin 2023
    Messages
    929
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : Bénin

    Informations professionnelles :
    Activité : Rédacteur technique
    Secteur : High Tech - Éditeur de logiciels

    Informations forums :
    Inscription : Juin 2023
    Messages : 929
    Points : 16 526
    Points
    16 526
    Par défaut Sam Altman appelle à déployer tous les efforts pour que l'"IA démocratique" l'emporte sur l'"IA autoritaire
    Sam Altman lance un appel aux armes pour faire en sorte que l'"IA démocratique" l'emporte sur l'"IA autoritaire"
    mais il cherche à lever des milliards dans les régimes autocratiques du Moyen-Orient

    Sam Altman a déclaré que le contrôle de l'IA est la question urgente de notre époque et que l'humanité doit faire face à un choix stratégique. Il a détaillé les mesures que les secteurs privé et public devraient prendre pour s'assurer que l'IA démocratique l'emporte sur l'IA autoritaire. Il a rappelé que le président russe Vladimir Poutine a déclaré que le vainqueur de la course à l'IA deviendra "le maître du monde" et que la Chine prévoit d'être le leader mondial de l'IA d'ici à 2030. Pourtant, Sam Altman lève des fonds auprès des monarchies du Moyen-Orient et est accusé d'avoir cherché à prendre en otage la réglementation sur l'IA pour qu'OpenAI règne en maître.

    Sam Altman : l'IA démocratique doit coûte que coûte l'emporter sur l'IA autoritaire

    Sam Altman, cofondateur et PDG d'OpenAI, a récemment publié une tribune dans le Washington Post dans lequel il exprime ses préoccupations face à la victoire potentielle d'un gouvernement autoritaire dans la course à l'IA. Il a déclaré que le monde se trouve à un moment charnière de l'histoire de la technologie et que les gouvernements démocratiques doivent mettre les bouchées doubles pour empêcher les gouvernements autoritaires de gagner la course à l'IA. Le PDG d'OpenAI a déclaré que le contrôle de l'IA est la "question urgente de notre époque" et que le monde doit faire face à un choix stratégique. Il explique notamment :


    « S'ils parviennent à prendre la tête de l'IA, les gouvernements autoritaires forceront les entreprises américaines et celles d'autres pays à partager les données des utilisateurs, en tirant parti de la technologie pour développer de nouveaux moyens d'espionner leurs propres citoyens ou de créer des cyberarmes de nouvelle génération à utiliser contre d'autres pays ». Selon Altman, il n'y a que deux issues possibles à cette bataille et les États-Unis et leurs alliés se doivent de l'emporter.

    Citation Envoyé par Sam Altman

    Ce sera un monde où les États-Unis et les nations alliées feront progresser une IA mondiale qui répandra les avantages de la technologie et en ouvrira l'accès, ou un monde autoritaire, où des nations ou des mouvements qui ne partagent pas nos valeurs utiliseront l'IA pour asseoir et étendre leur pouvoir.

    Il n'y a pas de troisième option et il est temps de décider de la voie à suivre.

    Les États-Unis ont actuellement une longueur d'avance dans le développement de l'IA, mais le maintien de ce leadership est loin d'être garanti. Les gouvernements autoritaires du monde entier sont prêts à dépenser d'énormes sommes d'argent pour nous rattraper et finalement nous dépasser.
    Pour donner du poids à ce qu'il dit, Altman a rappelé que le président russe Vladimir Poutine a précédemment déclaré que l'IA est une technologie stratégique et que le vainqueur de la course à l'IA deviendra en quelque sorte le maître du monde. Altman rappelle également que la Chine prévoit de dominer le monde en matière d'IA d'ici à 2030. « Non seulement ces régimes utiliseront l'IA pour perpétuer leur mainmise sur le pouvoir, mais ils pourront également se servir de cette technologie pour menacer les autres », a-t-il averti. Et pour permettre aux démocraties de gagner, Altman a un plan qu'il a exposé en quelques points.

    Sam Altman est accusé de jouer à un jeu de dupe pour servir ses propres intérêts

    « Si nous voulons un monde plus démocratique, l'histoire nous dit que notre seul choix est de développer une stratégie d'IA qui contribuera à le créer, et que les nations et les technologues qui ont une longueur d'avance ont la responsabilité de faire ce choix - maintenant », a déclaré Altman. Pour permettre à l'IA démocratique de gagner, Altman a appelé à une coalition mondiale dirigée par les États-Unis et à de nouvelles stratégies, soulignant quatre étapes clés :

    1. sécurité de base : élaborer des mesures de sécurité robustes pour garantir que la coalition conserve son avance en matière d'IA ;
    2. infrastructure : construire des quantités beaucoup plus importantes d'infrastructures d'IA, comme des centres de données ou des centrales électriques ;
    3. diplomatie commerciale : créer une politique de diplomatie commerciale qui définisse les contrôles des exportations d'IA et les règles d'investissement à l'étranger ;
    4. gouvernance mondiale : établir des modèles permettant au monde entier de fixer des normes pour le développement et le déploiement de l'IA, en citant des exemples tels que l'ICANN.


    Bien qu'il ne l'affirme pas clairement, Altman semble expliquer que l'IA développée par les gouvernements autoritaires est de facto "dangereuse" et "destructrice" et que l'IA des gouvernements démocratiques est "inoffensive" et alignée sur les valeurs humaines. « Bien qu'il soit important d'identifier le bon organe de décision, l'essentiel est que l'IA démocratique a une longueur d'avance sur l'IA autoritaire parce que notre système politique a permis aux entreprises, aux entrepreneurs et aux universitaires américains de faire de la recherche, d'innover et de construire », a écrit Altman dans son article d'opinion, tout en ajoutant :

    « Si la vision démocratique ne l'emporte pas, le monde ne sera pas en mesure de maximiser les avantages de la technologie et d'en minimiser les risques ». Cependant, Altman a été fortement critiqué pour ses propos qui placent face à ses propres contradictions. Tout d'abord, OpenAI semble ouvert aux applications militaires de l'IA et a même nommé un ancien général de l'armée américaine à son conseil d'administration. Ensuite, Altman ne semble pas du tout craintif lorsqu'il s'agit de lever des milliards auprès des "régimes autocratiques" tels que l'Arabie saoudite pour permettre à OpenAI de dominer le secteur de l'IA.

    Les craintes ont atteint leur paroxysme en mai, lorsque l'entreprise a publié GPT-4o avec une option vocale qui ressemblait à celle de Scarlett Johansson. Selon l'actrice, Altman lui a demandé en septembre dernier de prêter sa voix au système, mais elle a refusé. « Lorsque j'ai écouté la démo publiée, j'ai été choquée, en colère et incrédule qu'Altman a choisi une voix si étrangement similaire à la mienne que mes amis les plus proches et les médias n'ont pas pu faire la différence », a déclaré Johansson. OpenAI a déclaré que la voix n'était pas celle de Johansson, mais a tout de même interrompu l'utilisation de cette option.

    Sam Altman cherche à lever des milliards dans les monarchies du Moyen-Orient

    Au début de l'année, un rapport a révélé qu'Altman est en pourparlers avec TSMC et des investisseurs du Moyen-Orient dans le cadre d'une initiative visant à créer sa propre puce d'IA. Le projet vise à répondre aux besoins croissants d'OpenAI en semiconducteurs et à réduire sa dépendance à l'égard de Nvidia, dont les accélérateurs d'IA figurent parmi les composants informatiques les plus convoités dans l'industrie ces dernières années. Nvidia est le leader incontesté du secteur, contrôlant plus de 90 % du marché, et Altman veut défier ce monopole et permettre à OpenAI de dominer à la fois l'IA et l'écosystème qui l'entoure.

    Si les discussions aboutissent, cela permettrait à OpenAI de mettre en place un réseau d'usines de fabrication de puces d'IA qui, selon les indiscrétions, devraient être capables de rivaliser avec les puces de Nvidia. Altman ne semble pas gêné à l'idée d'aller grappiller des milliards pour ses projets auprès des monarchies autoritaires, un comportement qui rend ses discours sur la sécurité de l'IA de plus en plus inaudible auprès d'une grande partie de la communauté. Toutefois, il est important de souligner qu'OpenAI n'est pas la seule entreprise américaine ayant des liens avec le Moyen-Orient ; et leur nombre continue à grimper.

    Les entreprises d'IA de la Silicon Valley s'ouvrent de plus en plus aux financements du Moyen-Orient, encouragées par l'administration Biden qui voudrait s'en servir comme rempart contre la Chine. Les préoccupations liées aux abus des droits de l'homme dans ces régimes autoritaires sont passées au second plan face au gigantesque gouffre financier qu'est l'IA, notamment en raison de ses besoins énergétiques, en centres de données et en matière de puces.

    Citation Envoyé par Critique

    Ils cherchent désespérément à faire perdurer leur projet après les articles sur leur taux d'épuisement phénoménal et leur adoption commerciale morose, et face aux solutions plus ouvertes (pas open source, mais sans doute plus ouvertes de toute façon) de Meta et d'autres.

    Il faut s'assurer que personne n'utilise les grands modèles de langage (LLM) chinois et tirer la sonnette d'alarme pour que les autorités fédérales soient prêtes à injecter de l'argent dans ce domaine au cas où tout échouerait sur les marchés privés.

    Il est difficile de ne pas y voir une bulle plus importante que celle des dotcoms, mais en réalité bien pire, car elle est concentrée dans quelques entreprises.
    La Silicon Valley était autrefois connue comme étant un bastion de la liberté d’expression et de l’innovation ouverte. En comparaison, le Moyen-Orient est connu pour ses régimes rigides et ses pratiques controversées en matière de droits humains. Cette évolution marque un changement significatif dans la dynamique du pouvoir et du financement dans l’écosystème technologique mondial. Pour toutes ses raisons, le récent appel d'Altman peine à trouver son public.

    Sam Altman est devenu un personnage "très controversé" dans le domaine de l'IA

    Le scénario du licenciement temporaire d'Altman en novembre dernier a révélé certains aspects cachés du personnage. Sa menace d'évider OpenAI à moins que le conseil d'administration ne le réengage, et son insistance à remplir le conseil d'administration avec de nouveaux membres biaisés en sa faveur ont révélé au grand jour sa détermination à conserver le pouvoir et à éviter les contrôles futurs. D'anciens collègues et employés ont décrit Altman comme un manipulateur qui tient un double langage : par exemple, c'est quelqu'un qui affirme vouloir donner la priorité à la sécurité, mais toutes ses actions le contredisent.

    Selon les anciens collègues et employés, tout cela a conduit à une perte progressive de la confiance du public dans OpenAI et dans la capacité de l'entreprise à respecter les engagements pris lors de sa création. D'ailleurs, Elon Musk, qui a cofondé OpenAI en 2015 avec Sam Altman et le chercheur en IA Ilya Sutskever, a publiquement accusé aujourd'hui la société d'avoir rompu ses accords initiaux. Musk, qui a quitté OpenAI depuis 2018 en raison de désaccords, accuse OpenAI d'avoir abandonné son objectif initial de développer une IA qui bénéficierait à toute l'humanité afin de poursuivre plutôt un succès commercial.

    Citation Envoyé par Critique

    Je suis tout à fait favorable à ce que l'IA soit mise entre les mains des citoyens. Je pense que l'IA deviendra un outil essentiel pour certaines industries, à l'instar de Photoshop ou des images de synthèse pour la presse écrite et le cinéma respectivement. Cependant, Altman est un cancer et il n'a qu'un seul objectif. S'enrichir au détriment de tout et de rien. Et cela parce qu'il croit, avec une ferveur quasi religieuse, qu'il est le seul à comprendre l'IA.

    Il pense être le seul à pouvoir nous guider dans cette vision démocratique de l'IA. Il est tellement imbu de sa personne qu'il représente un danger absolu pour tout ce qu'il préconise. Altman est la dernière personne à qui l'on devrait demander conseil en matière d'IA.

    Nous n'avons pas besoin de centrales nucléaires ni de milliards de fermes de serveurs. Ce dont nous avons besoin, c'est d'innovation dans les algorithmes eux-mêmes. Nous avons besoin d'optimisations dans le pipeline complet de chaque réseau neuronal. Nous avons besoin de discussions ouvertes et d'outils à la disposition de tous ceux qui le souhaitent. Nous n'avons pas besoin d'immenses fermes de serveurs, tout ce dont nous avons besoin, c'est de l'innovation.
    En outre, Altman met en avant la question de la sécurité, mais a vidé OpenAI de la totalité des membres de l'équipe Superalignment qui était chargée d'assurer la sécurité des modèles d'IA de l'entreprise. OpenAI a fait face à une vague impressionnante de démissions depuis le retour d'Altaman après son licenciement, et les témoignages de certaines personnes ayant quitté le navire décrivent une atmosphère toxique et une recherche effrénée du profit au détriment de la sécurité. Après sa démission, Jan Leike, ancien membre de l'équipe Superalignment, a partagé sur X les difficultés que son équipe a rencontrées.

    « Se retirer de ce travail a été l'une des choses les plus difficiles que j'aie jamais faites, car il est urgent de trouver comment diriger et contrôler des systèmes d'intelligence artificielle beaucoup plus intelligents que nous. J'ai rejoint la société parce que je pensais qu'OpenAI serait le meilleur endroit au monde pour faire cette recherche. Cependant, j'ai été en désaccord avec la direction d'OpenAI sur les priorités fondamentales de l'entreprise pendant un certain temps, jusqu'à ce que nous ayons finalement atteint un point de rupture. Au cours des derniers mois, mon équipe a navigué à contre-courant », a écrit Jan Leike.

    Source : Sam Altman

    Et vous ?

    Quel est votre avis sur le sujet ?
    Que pensez-vous de l'appel de Sam Altman à militer pour la victoire de l'IA démocratique sur l'IA autocratique ?
    Sam Altman est-il la personne idéale pour porter ce combat ? Selon vous, pourquoi est-il devenu un personnage si controversé ?
    Que pensez-vous des liens des entreprises d'IA de la Silicon Valley avec le Moyen-Orient ?
    L'IA démocratique est-elle systématiquement plus sûre que l'IA autocratique comme Sam Altman le laisse entendre ?
    Peut-on dire qu'une IA est démocratique ou autocratique ?

    Voir aussi

    Greg Brockman et Sam Altman répondent aux critiques de Jan Leike. Après avoir quitté son poste de chef de l'équipe de superalignement, il a révélé que « mon équipe a navigué à contre-courant »

    Sam Altman serait en pourparlers avec les Émirats arabes unis et TSMC dans le cadre d'un projet visant à créer ses propres puces d'IA pour répondre aux besoins d'OpenAI et rivaliser avec Nvidia

    Les entreprises IA de la Silicon Valley s'ouvrent aux financements du Moyen-Orient, encouragées par l'administration Biden qui voudrait s'en servir comme rempart contre la Chine

  13. #33
    Membre émérite
    Homme Profil pro
    Chargé de projets
    Inscrit en
    Décembre 2019
    Messages
    757
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Âge : 34
    Localisation : France, Hérault (Languedoc Roussillon)

    Informations professionnelles :
    Activité : Chargé de projets
    Secteur : High Tech - Éditeur de logiciels

    Informations forums :
    Inscription : Décembre 2019
    Messages : 757
    Points : 2 743
    Points
    2 743
    Par défaut
    Sam Altman c'est un genre d'Elon Musk. Il fait ce que les USA peuvent pas faire ouvertement en tant qu'état, c'est un nouveau seigneur. Musk a balancé ses satellites en orbite pour l'armée avant de le faire pour le profit, pour contourner le traité sur l'interdiction de la militarisation de l'espace (que personne ne respecte de toute façon). Altman occupe l'espace numérique de la même manière pour, comme il est dit dans l'article, faire rempart contre la Chine. Tout sauf les solutions Chinoises, c'est ce qu'ils se disent.

    Et si le mec peut aller faire les poches d'investisseurs potentiel let's go, c'est encore ça que les Chinois n'auront pas.

    Dans pas longtemps vous verrez que comme Musk son principal client c'est l'armée américaine ou l'état tout court. Un de ses bons potes qui est aussi dans le conseil d'administration d'OPEN AI n'est autre que Larry Summers, un économiste de Barack OBAMA, le gars qui a envoyé le plus de bombe en tant que Président mais comme il était noir c'était le progrès. Il est proche de l'administration Biden et peut pas saquer le seul qui veut pas la guerre mais que la propagande accuse de tout les maux, Trump...

    En résumé Sam est un seigneur de la Silicon Valley qui se demande comment il va faire du cash sur la glèbe numérique que les USA lui mettent à disposition, tout en jouant leurs jeux de pouvoirs contre la Chine et la Russie, enfin les BRICS désormais. Le monde contre eux quoi.

  14. #34
    Expert confirmé
    Homme Profil pro
    ingénieur qualité
    Inscrit en
    Mars 2015
    Messages
    1 366
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : Belgique

    Informations professionnelles :
    Activité : ingénieur qualité
    Secteur : Aéronautique - Marine - Espace - Armement

    Informations forums :
    Inscription : Mars 2015
    Messages : 1 366
    Points : 4 132
    Points
    4 132
    Par défaut
    Citation Envoyé par Mathis Lucas Voir le message
    Sam Altman : l'IA démocratique doit coûte que coûte l'emporter sur l'IA autoritaire
    "coute que coute" est une expression dont il faut toujours se méfier.
    Ca peut mener à combattre le feu par le feu et finir autant brulé en cas d'échec qu'en cas de succès.
    il exprime ses préoccupations face à la victoire potentielle d'un gouvernement autoritaire dans la course à l'IA [...] et que les gouvernements démocratiques doivent mettre les bouchées pour empêcher les gouvernements autoritaires de gagner la course à l'IA
    Je n'ai pas bien compris de quel "méchant" il parle là, la Chine, la Russie ou les USA?
    Quel gouvernement "gentil" devrait donc les contrer?
    « S'ils parviennent à prendre la tête de l'IA, les gouvernements autoritaires forceront les entreprises américaines et celles d'autres pays à partager les données des utilisateurs, en tirant parti de la technologie pour développer de nouveaux moyens d'espionner leurs propres citoyens ou de créer des cyberarmes de nouvelle génération à utiliser contre d'autres pays ». Selon Altman, il n'y a que deux issues possibles à cette bataille et les États-Unis et leurs alliés se doivent de l'emporter.
    Donc on doit empêcher les autres de faire ce que les USA font déjà?
    Je suis d'accord mais on se tracasse quand du fait que les USA espionnent leurs propres citoyens et ceux des autres?

    Je trouve très interressant cette conception des américains à considérer que la démocratie c'est eux qui décident pour tout le monde mais surtout pas quelqu'un d'autre qui décide pour eux.
    L'essence même de la démocratie n'est-elle pas le désaccord; l'échange et la recherche de l'équilibre?

    Bref il nous propose la peste pour éviter le choléra...

  15. #35
    Chroniqueur Actualités

    Homme Profil pro
    Rédacteur technique
    Inscrit en
    Juin 2023
    Messages
    929
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : Bénin

    Informations professionnelles :
    Activité : Rédacteur technique
    Secteur : High Tech - Éditeur de logiciels

    Informations forums :
    Inscription : Juin 2023
    Messages : 929
    Points : 16 526
    Points
    16 526
    Par défaut Sam Altman est accusé d'avoir manqué de transparence au sujet des efforts d'OpenAI en matière de sécurité
    Sam Altman est accusé d'avoir manqué de transparence au sujet des efforts d'OpenAI en matière de sécurité
    et d'avoir réduit ses employés au silence par le biais d'accords de non-divulgation

    OpenAI et son PDG Sam Altman sont interpellés au sujet d'allégations selon lesquelles l'entreprise étouffe les risques liés à la sécurité de ses grands modèles de langage. L'entreprise utiliserait notamment des accords contraignants et des menaces de représailles afin de réduire ses employés au silence, les empêchant de divulguer des informations aux autorités. OpenAI fait désormais face à une pression croissante de la part des législateurs américains pour cesser d'appliquer ces accords et prouver qu'il ne cache pas les risques liés à l'IA. La pression s'accroît sur OpenAI alors que Sam Altman est de plus en plus controversé dans la communauté de l'IA.

    Un sénateur demande à OpenAI de prouver qu'il ne réduit pas son personnel au silence

    Des employés d'OpenAI ont déposé cette année une plainte contre leur employeur auprès de la Securities and Exchange Commission (SEC) des États-Unis. La plainte accuse OpenAI d'avoir violé les droits des lanceurs d'alerte en les réduisant au silence par le biais d'accords contraignants et des menaces de représailles. Elle indique qu'OpenAI a illégalement interdit à ses employés de divulguer aux régulateurs des informations sur les risques de sa technologie pour l'humanité. Ces accusations ont attiré l'attention des législateurs du Congrès américain qui demandent des explications à OpenAI et la suppression de ces accords.

    Nom : Capture d'écran 2024-08-05 114831.png
Affichages : 2217
Taille : 205,5 Ko

    Dans une lettre adressée à OpenAI, le sénateur Chuck Grassley (R-Iowa) a exigé "des preuves qu'OpenAI n'exige plus d'accords qui pourraient empêcher ses employés de faire des divulgations protégées aux régulateurs gouvernementaux". Grassley a demandé à OpenAI de produire des accords actuels d'emploi, d'indemnités de licenciement, de non-dénigrement et de non-divulgation pour rassurer le Congrès sur le fait que les contrats ne découragent pas les divulgations.

    Le sénateur a déclaré : « c'est essentiel, pour qu'il soit possible de compter sur les lanceurs d'alerte qui exposent les menaces émergentes afin d'aider à élaborer des politiques d'IA efficaces qui protègent contre les risques existentiels de l'IA à mesure que les technologies progressent ». Selon la lettre, ce n'est pas la première fois que Grassley demande ces documents à OpenAI. Il l'aurait apparemment demandé deux fois déjà sans obtenir de réponse de la part d'OpenAI.

    « Il ne suffit pas de prétendre avoir fait des "mises à jour". Altman doit fournir des dossiers et des réponses à mes demandes de surveillance afin que le Congrès puisse évaluer avec précision si OpenAI protège adéquatement ses employés et ses utilisateurs », affirme Grassley. Selon son porte-parole Clare Slattery, jusqu'à présent, OpenAI n'a pas répondu à la demande la plus récente d'envoi de documents. Le silence de l'entreprise sur les demandes suscite des inquiétudes.

    La lettre de Grassley intervient quelques jours seulement après que cinq sénateurs ont envoyé à Altman une lettre exigeant des informations sur la manière dont l'entreprise respecterait ses "engagements publics" afin de garantir que sa technologie d'IA ne cause pas de dommages, par exemple en apprenant aux utilisateurs à fabriquer des armes biologiques ou en aidant les pirates informatiques à mettre au point de nouveaux types de cyberattaques.

    En outre, les employés craignent qu'OpenAI fasse passer le profit avant la sécurité. Des rapports indiquent en effet qu'OpenAI a précipité la sortie de son dernier modèle d'IA, GPT-4 Omni, pour respecter la date de sortie fixée au mois de mai. Les dirigeants de l'entreprise ont procédé au lancement malgré les craintes des employés concernant le calendrier, et ont accéléré les tests de sécurité complets, mettant à mal l'engagement de sécurité pris auprès de la Maison Blanche.

    OpenAI invité à faire preuve de transparence sur ses pratiques en matière de sécurité

    En plus de demander les accords d'employés récemment mis à jour par OpenAI, Grassley invite OpenAI à divulguer le nombre total de demandes qu'il a reçues de la part d'employés cherchant à faire "des divulgations fédérales" depuis 2023. Grassley veut savoir quelles informations les employés voulaient divulguer aux autorités et si OpenAI a effectivement approuvé leurs demandes. Dans le même ordre d'idées, le sénateur a demandé à OpenAI de confirmer le nombre d'enquêtes que la SEC a ouvertes sur OpenAI depuis 2023. OpenAI accusé d'avoir relégué la question de la sécurité au second plan depuis plusieurs années.

    Ensemble, ces documents permettraient de de savoir si les employés d'OpenAI sont potentiellement toujours réduits au silence pour faire des divulgations fédérales, quels types de divulgations OpenAI nie et à quel point la SEC surveille de près les efforts apparents d'OpenAI pour cacher les risques de sécurité. « Il est crucial qu'OpenAI s'assure que ses employés peuvent fournir des divulgations protégées sans restrictions illégales », a écrit Grassley dans sa lettre.

    Le sénateur a demandé une réponse à OpenAI avant le 15 août afin que le Congrès puisse mener une surveillance objective et indépendante sur les protocoles de sécurité et les accords de non-divulgation d'OpenAI. Mais les appels à plus de transparence de la part d'OpenAI vont au-delà des législateurs. La veille du jour où Grassley a envoyé sa lettre, Altman a écrit sur X affirmant qu'OpenAI avait consacré d'amples ressources aux efforts de sécurité depuis juillet.

    « Comme nous l'avons dit en juillet dernier, nous nous sommes engagés à allouer au moins 20 % des ressources informatiques aux efforts de sécurité dans l'ensemble de l'entreprise », a écrit Altman. Cependant, les utilisateurs X ont ajouté une note de la communauté qui a étiqueté le message d'Altman comme trompeur au milieu des protestations du public dans les commentaires. L'annonce d'Altman fait étrangement écho à un rapport qui dit exactement le contraire.

    En effet, un rapport paru en mai indiquait qu'Altman et OpenAI avaient promis en 2023 de consacrer 20 % de la puissance de calcul de l'entreprise à la lutte contre les formes d'IA malveillantes et la sécurité de ses modèles d'IA. Mais les dirigeants de l'entreprise n'ont jamais tenu cette promesse. À peine un an plus tard, l'équipe chargée de ces travaux a été dissoute et OpenAI semble donner la priorité aux profits et au lancement de nouveaux produits plutôt qu'à la sécurité.

    À plusieurs reprises, l'équipe aurait vu ses demandes d'accès aux unités de traitement graphique rejetées par la direction d'OpenAI, même si le budget total de l'équipe ne s'est jamais approché du seuil de 20 % promis. OpenAI n'a pas réagi à ces allégations, mais elles remettent en question le sérieux avec lequel il a honoré sa promesse sur la sécurité de ses produits d'IA. Et l'on pourrait aussi se demander si d'autres engagements publics d'OpenAI sont dignes de confiance.

    Les actions d'OpenAI remettent en question ses engagements en matière de sécurité

    Les utilisateurs de X ont demandé Altman plus de détails sur ce que les efforts de sécurité d'OpenAI impliquent désormais. Dans une lettre du 31 juillet répondant à cinq autres sénateurs posant des questions sur la sécurité de l'IA, OpenAI a détaillé ses efforts en matière de sécurité. OpenAI a également clarifié que l'affirmation d'Altman sur X. « Pour faire avancer notre programme de recherche sur la sécurité, nous nous sommes engagés en juillet dernier à allouer au moins 20 % des ressources informatiques que nous avions obtenues à la sécurité de l'IA sur une période de plusieurs années », explique OpenAI aux sénateurs.

    OpenAI précise toutefois : « cet engagement a toujours été destiné à s'appliquer aux efforts de sécurité déployés dans l'ensemble de notre entreprise, et pas seulement à une équipe spécifique ». Cela reste quelque peu confus puisqu’OpenAI avait explicitement déclaré que "l'entreprise consacrait 20 % du calcul qu’elle a obtenu à ce jour à la résolution du problème de l'alignement des superintelligences au cours des quatre prochaines années". À l'époque, OpenAI avait déclaré que son principal pari de recherche fondamentale était son ancienne équipe Superalignment, qui avait besoin de ces ressources informatiques.

    Dans la lettre aux sénateurs, le directeur de la stratégie Jason Kwon d'OpenAI a déclaré aux législateurs que l'entreprise se prémunit contre les risques en collaborant avec des experts externes pour évaluer profondément les risques à ses modèles. Cela inclut la consultation de plus de 100 experts externes qui ont aidé à évaluer les risques associés à notre dernier modèle, GPT-4o. Pour les employés travaillant sur de nouvelles fonctionnalités ou de nouveaux modèles qui craignent encore des représailles pour avoir soulevé des problèmes de sécurité, Kwon a déclaré qu'OpenAI a mis en place une ligne d'intégrité en mars.

    Grâce à ce canal, les employés peuvent signaler anonymement leurs préoccupations lorsqu'ils ne se sentent pas à l'aise pour soulever des problèmes par le biais d'autres canaux existants. Bien qu'OpenAI ait déclaré que les employés peuvent parler librement de toute préoccupation, il est clair que certaines informations ne peuvent toujours pas être partagées si OpenAI estime qu'elles présentent un risque pour la sécurité. Dans sa lettre, Kwon explique ce qui suit :

    « OpenAI continue de faire la distinction entre soulever des préoccupations et révéler des secrets commerciaux de l'entreprise. Cette dernière (sous réserve du droit de faire des divulgations protégées) reste interdite par les accords de confidentialité pour les employés actuels et anciens. Nous pensons que cette interdiction est particulièrement importante étant donné les implications de notre technologie pour la sécurité nationale des États-Unis ».

    Compte tenu de cette exception permettant à OpenAI de refuser certaines divulgations fédérales, il semble probable que Grassley tente de savoir si OpenAI refuse des divulgations de manière inappropriée en prétendant protéger des secrets commerciaux. La lettre de Grassley indique clairement que le sénateur s'inquiète des risques liés à l'autorégulation de la sécurité par OpenAI. Précédemment, Altman a été accusé de vouloir s'emparer de la réglementation sur l'IA.

    Sam Altman est devenu un personnage "très controversé" dans le domaine de l'IA

    Le scénario du licenciement temporaire d'Altman en novembre dernier a révélé certains aspects cachés du personnage. Sa menace d'évider OpenAI à moins que le conseil d'administration ne le réengage, et son insistance à remplir le conseil d'administration avec de nouveaux membres biaisés en sa faveur ont révélé au grand jour sa détermination à conserver le pouvoir et à éviter les contrôles futurs. D'anciens collègues et employés ont décrit Altman comme un manipulateur qui tient un double langage : par exemple, c'est quelqu'un qui affirme vouloir donner la priorité à la sécurité, mais toutes ses actions le contredisent.

    Selon les anciens collègues et employés, tout cela a conduit à une perte progressive de la confiance du public dans OpenAI et dans la capacité de l'entreprise à respecter les engagements pris lors de sa création. D'ailleurs, Elon Musk, qui a cofondé OpenAI en 2015 avec Sam Altman et le chercheur en IA Ilya Sutskever, a publiquement accusé aujourd'hui la société d'avoir rompu ses accords initiaux. Musk, qui a quitté OpenAI depuis 2018 en raison de désaccords, accuse OpenAI d'avoir abandonné son objectif initial de développer une IA qui bénéficierait à toute l'humanité afin de poursuivre plutôt un succès commercial.

    En outre, Altman met en avant la question de la sécurité, mais a vidé OpenAI de la totalité des membres de l'équipe Superalignment qui était chargée d'assurer la sécurité des modèles d'IA de l'entreprise. OpenAI a fait face à une vague impressionnante de démissions depuis le retour d'Altaman après son licenciement, et les témoignages de certaines personnes ayant quitté le navire décrivent une atmosphère toxique et une recherche effrénée du profit au détriment de la sécurité. Après sa démission, Jan Leike, ancien membre de l'équipe Superalignment, a partagé sur X les difficultés que son équipe a rencontrées.

    « Se retirer de ce travail a été l'une des choses les plus difficiles que j'aie jamais faites, car il est urgent de trouver comment diriger et contrôler des systèmes d'intelligence artificielle beaucoup plus intelligents que nous. J'ai rejoint la société parce que je pensais qu'OpenAI serait le meilleur endroit au monde pour faire cette recherche. Cependant, j'ai été en désaccord avec la direction d'OpenAI sur les priorités fondamentales de l'entreprise pendant un certain temps, jusqu'à ce que nous ayons finalement atteint un point de rupture. Au cours des derniers mois, mon équipe a navigué à contre-courant », a écrit Jan Leike.

    Sources : lettre du sénateur américain Chuck Grassley (PDF), OpenAI (PDF)

    Et vous ?

    Quel est votre avis sur le sujet ?
    Que pensez-vous des allégations portées contre OpenAI et Sam Altman ?
    Pourquoi l'entreprise peine-t-elle à divulguer les documents exigés par le sénateur ?
    Pensez-vous qu'OpenAI utilise l'argument des secrets commerciaux pour museler ses employés ?

    Voir aussi

    Des lanceurs d'alerte affirment qu'OpenAI a illégalement interdit à son personnel de divulguer les risques de sécurité liés à son IA, en s'appuyant sur des accords contraignants et des menaces de représailles

    Sam Altman et OpenAI ont promis de consacrer 20 % de la puissance de calcul de l'entreprise à la lutte contre les formes d'IA malveillantes, mais n'ont jamais tenu cette promesse

    Sam Altman lance un appel aux armes pour faire en sorte que l'"IA démocratique" l'emporte sur l'"IA autoritaire", mais il cherche à lever des milliards dans les régimes autocratiques du Moyen-Orient

  16. #36
    Chroniqueur Actualités
    Avatar de Anthony
    Homme Profil pro
    Rédacteur technique
    Inscrit en
    Novembre 2022
    Messages
    1 278
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : France, Gironde (Aquitaine)

    Informations professionnelles :
    Activité : Rédacteur technique

    Informations forums :
    Inscription : Novembre 2022
    Messages : 1 278
    Points : 21 010
    Points
    21 010
    Par défaut Sam Altman souhaite que le gouvernement teste la sécurité de l'IA comme il le fait pour les médicaments
    Sam Altman confie à Oprah qu'il souhaite que le gouvernement teste la sécurité de l'IA comme il le fait pour les avions et les médicaments, et qu'il communique avec des membres du gouvernement "tous les jours"

    Sam Altman, PDG d'OpenAI, a appelé à tester davantage l'intelligence artificielle lors d'une interview accordée à Oprah dans le cadre de sa nouvelle émission spéciale, « AI and the Future of Us », diffusée le jeudi 12 septembre au soir.

    Samuel Harris Altman est un entrepreneur et investisseur américain surtout connu pour être le PDG d'OpenAI depuis 2019 (il a été brièvement licencié puis réintégré dans ses fonctions en novembre 2023). Il est également le président des sociétés d'énergie propre Oklo Inc. et Helion Energy. Altman est considéré comme l'une des figures de proue du boom de l'IA. Il a abandonné l'université de Stanford au bout de deux ans et a fondé Loopt, un service de réseau social mobile, levant plus de 30 millions de dollars en capital-risque. En 2011, Altman a rejoint Y Combinator, un accélérateur de startups, dont il a été le président de 2014 à 2019.

    Le développement rapide de l'intelligence artificielle (IA) a suscité un débat mondial sur son impact potentiel et sur la nécessité d'un développement responsable. L'un des aspects essentiels de ce débat est la réglementation de l'IA, les experts s'interrogeant sur la manière de garantir une utilisation sûre et éthique de l'IA. Sam Altman, PDG d'OpenAI, une société de recherche axée sur le développement d'une IA sûre et bénéfique, est l'un des principaux acteurs de ce débat. M. Altman a notamment plaidé en faveur de la création d'une agence internationale chargée de contrôler et de garantir la « sécurité raisonnable » des puissants systèmes d'IA.


    M. Altman, qui a cofondé et dirige la startup d'IA à l'origine du populaire chatbot d'IA générative ChatGPT, a déclaré que la prochaine étape consistait pour le gouvernement à commencer à effectuer des tests de sécurité sur cette nouvelle technologie qui progresse rapidement.

    « L'une des premières choses à faire - et c'est ce qui est en train de se produire - est de faire en sorte que le gouvernement commence à réfléchir à la manière de tester la sécurité de ces systèmes, comme nous le faisons pour les avions ou les nouveaux médicaments », a-t-il déclaré.

    « J'ai personnellement probablement une conversation avec quelqu'un du gouvernement tous les deux ou trois jours », a-t-il ajouté.

    Ces propos contrastent avec la position interne de M. Altman et d'OpenAI sur les restrictions à l'innovation. En mai, l'entreprise a dissous son équipe « Superalignment », qui était chargée de travailler sur le problème des dangers existentiels de l'IA. L'entreprise a déclaré que les travaux de l'équipe seraient absorbés par d'autres efforts de recherche au sein d'OpenAI. Des critiques, y compris d'anciens employés, ont averti que l'entreprise et ses ambitions posaient de « sérieux risques ».

    À terme, OpenAI espère atteindre ce que l'on appelle l'intelligence artificielle générale (AGI), une vision futuriste de machines capables de faire à peu près n'importe quoi aussi bien que les humains.

    L'émission spéciale, qui comprend également des interviews d'autres experts, dont le fondateur de Microsoft Bill Gates et le directeur du FBI Christopher Wray, est désormais disponible en streaming sur Hulu.

    OpenAI serait actuellement en pourparlers avec des investisseurs en vue d'obtenir un financement de 6,5 milliards de dollars dans le cadre d'un nouveau tour de table. Cette levée de fonds d'OpenAI pourrait porter sa valorisation à 150 milliards de dollars. Les rapports montrent que l'entreprise cherche a combler des milliards de pertes dû aux dépenses colossales pour la formation de ses modèles d'IA.

    Ce dernier tour de table serait le plus important depuis le soutien de 10 milliards de dollars accordé par Microsoft en janvier 2023, et pourrait également inclure des fonds provenant d'Apple et de Nvidia.

    Pour sa part, Oprah a souligné l'importance de prêter attention aux nouvelles technologies et de s'y adapter si nécessaire, étant donné que l'IA - bien qu'elle en soit encore à ses débuts - est probablement là pour durer.

    « L'IA échappe encore à notre contrôle et, dans une large mesure, à notre compréhension », a-t-elle déclaré dans des remarques préparées au début de l'émission spéciale. « Mais elle est là, et nous allons vivre avec une technologie qui peut être notre alliée comme notre rivale ».

    « Nous sommes les créatures les plus adaptables de cette planète », a-t-elle ajouté. « Nous nous adapterons encore. Mais ne perdez pas de vue la réalité. Les enjeux ne pourraient être plus élevés. »

    Et vous ?

    Quel est votre avis sur le sujet ?
    Trouvez-vous cette proposition de M. Altman cohérente ou pertinente ?

    Voir aussi :

    Sam Altman, PDG d'OpenAI, estime qu'une agence internationale devrait surveiller les IA "les plus puissantes" pour garantir une "sécurité raisonnable", car ces systèmes peuvent "causer d'importants dommages"

    OpenAI a créé un comité de sûreté et de sécurité qui sera dirigé par des membres du conseil d'administration, dont le PDG Sam Altman, alors qu'elle commence à former son prochain modèle d'IA

    Les startups d'IA OpenAI et Anthropic ont signé des accords avec le gouvernement américain pour la recherche, le test et l'évaluation de leurs modèles d'intelligence artificielle
    Contribuez au club : corrections, suggestions, critiques, ... Contactez le service news et Rédigez des actualités

  17. #37
    Expert éminent Avatar de kain_tn
    Homme Profil pro
    Inscrit en
    Mars 2005
    Messages
    1 699
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : Suisse

    Informations forums :
    Inscription : Mars 2005
    Messages : 1 699
    Points : 7 959
    Points
    7 959
    Par défaut
    Citation Envoyé par Anthony Voir le message
    Sam Altman confie à Oprah qu'il souhaite que le gouvernement teste la sécurité de l'IA comme il le fait pour les avions et les médicaments, et qu'il communique avec des membres du gouvernement "tous les jours"
    Si ce sont les mêmes processus que pour le 737 MAX et le Mediator, ça promet.

    Citation Envoyé par Anthony Voir le message
    les experts s'interrogeant sur la manière de garantir une utilisation sûre et éthique de l'IA.
    Facile: interdire sa monétisation.
    Copier c'est copier; voler c'est vendre un CD une vingtaine d'euros!


    Code C : Sélectionner tout - Visualiser dans une fenêtre à part
    1
    2
    3
    4
    5
    6
    7
    #include <stdio.h>
     
    int main(int argc, char **argv) {
     
        printf("So long, and thanks for the fish, Dennis...\n");
        return 0;
    }

Discussions similaires

  1. Réponses: 115
    Dernier message: 25/10/2024, 02h01
  2. Réponses: 0
    Dernier message: 07/06/2023, 19h01
  3. Réponses: 0
    Dernier message: 17/05/2023, 13h24
  4. Réponses: 3
    Dernier message: 03/02/2023, 08h55
  5. Réponses: 0
    Dernier message: 24/01/2017, 21h20

Partager

Partager
  • Envoyer la discussion sur Viadeo
  • Envoyer la discussion sur Twitter
  • Envoyer la discussion sur Google
  • Envoyer la discussion sur Facebook
  • Envoyer la discussion sur Digg
  • Envoyer la discussion sur Delicious
  • Envoyer la discussion sur MySpace
  • Envoyer la discussion sur Yahoo