IdentifiantMot de passe
Loading...
Mot de passe oublié ?Je m'inscris ! (gratuit)
Navigation

Inscrivez-vous gratuitement
pour pouvoir participer, suivre les réponses en temps réel, voter pour les messages, poser vos propres questions et recevoir la newsletter

  1. #121
    Chroniqueur Actualités

    Homme Profil pro
    Rédacteur technique
    Inscrit en
    Juin 2023
    Messages
    1 104
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : Bénin

    Informations professionnelles :
    Activité : Rédacteur technique
    Secteur : High Tech - Éditeur de logiciels

    Informations forums :
    Inscription : Juin 2023
    Messages : 1 104
    Par défaut Suchir Balaji, le lanceur d'alerte d'OpenAI, était cité comme détenant des preuves accablantes sur OpenAI
    Le lanceur d'alerte d'OpenAI décédé était considéré comme un témoin dans des procès contre l'entreprise
    il détenait des « documents pertinents » démontrant les violations de droit d'auteur par OpenAI

    Suchir Balaji, un ancien ingénieur d'OpenAI devenu lanceur d'alerte concernant les pratiques de l'entreprise en matière de données, a été retrouvé mort dans son appartement à San Francisco le 26 novembre 2024. De nouveaux éléments révèlent que Suchir Balaji, 26 ans, était cité comme témoin dans des affaires judiciaires contre OpenAI comme ayant des « documents pertinents » sur la violation présumée des droits d'auteur par la startup. Suchir Balaji a dénoncé publiquement ce qu'il appelle « la collecte massive et abusive des données » effectuée par OpenAI dans le cadre de la formation de ses modèles d'IA et s'est interrogé sur la légalité de cette pratique.

    Suchir Balaji était cité comme détenant des preuves accablantes sur OpenAI

    Selon les récits sur Suchir Balaji, il était très apprécié par ses anciens collègues d'OpenAI. Un cofondateur d'OpenAI a même déclaré récemment que Suchir Balaji avait joué un rôle essentiel dans le développement de certains des produits d'IA générative de l'entreprise. « Les contributions de Suchir à ce projet ont été essentielles, et le projet n'aurait pas abouti sans lui », a déclaré John Schulman, cofondateur d'OpenAI, dans un hommage sur Suchir Balaji.


    John Schulman, qui a recruté Suchir Balaji dans son équipe, a déclaré que ce qui avait fait de lui un ingénieur et un scientifique exceptionnel était son souci du détail et sa capacité à remarquer des bogues subtils ou des erreurs logiques. « Il avait le don de trouver des solutions simples et d'écrire des codes élégants qui fonctionnaient. Il réfléchissait soigneusement et rigoureusement aux détails des choses », peut-on lire dans le message de John Schulman.

    Par la suite, Suchir Balaji s'est consacré à l'organisation des énormes ensembles de données utilisés pour former GPT-4, la quatrième génération du grand modèle de langage (LLM) phare d'OpenAI et la base du célèbre chatbot de la société. C'est ce travail qui a amené Suchir Balaji à s'interroger sur la technologie qu'il avait contribué à mettre au point, en particulier après que les éditeurs et les créateurs de contenus ont commencé à poursuivre OpenAI en justice.

    OpenAI est accusé de violation de droit d'auteur par les plaignants, qui réclament des lois pour protéger leurs moyens de subsistance contre l'essor de l'IA. Suchir Balaji partageait l'avis de ces travailleurs. Il a d'abord fait part de ses préoccupations au New York Times, qui les a rapportées dans un portrait de Suchir Balaji publié en octobre 2024. Le New York Times poursuit également OpenAI pour utilisation non autorisée de ses articles de presse par ChatGPT.

    Suchir Balaji a ensuite déclaré à l'Associated Press qu'il essaierait de témoigner dans les affaires de violation de droits d'auteur les plus sérieuses et qu'il considérait le procès intenté par le New York Times comme « le plus sérieux ». Les avocats du Times l'ont cité dans un dossier déposé au tribunal le 18 novembre 2024 comme quelqu'un qui pourrait avoir des « documents uniques et pertinents » démontrant la violation délibérée du droit d'auteur par OpenAI.

    Il n'a pas été auditionné par les tribunaux et l'on ne sait pas dans quelle mesure ses déclarations seront admises comme preuves dans les affaires judiciaires après sa mort. Il a également publié un billet de blogue personnel dans lequel il fait part de ses opinions sur le sujet.

    Suchir Balaji avait déclaré qu'il était de plus en plus désillusionné par OpenAI

    Les dossiers de Suchir Balaji ont également été demandés par des avocats dans un procès distinct intenté par des auteurs de livres, dont la comédienne Sarah Silverman. « Il n'est pas normal de s'entraîner sur les données des gens et de leur faire concurrence sur le marché. Je ne pense pas que vous devriez être en mesure de faire cela. Je ne pense pas qu'il soit possible de le faire légalement », a expliqué Suchir Balaji à l'Associated Press fin octobre 2024.

    Il a déclaré à l'Associated Press qu'il était de plus en plus désillusionné par OpenAI, en particulier après les troubles internes qui ont conduit son conseil d'administration à licencier le PDG, Sam Altman, en 2023, avant le réembaucher. Suchir Balaji a déclaré qu'il était globalement préoccupé par la manière dont ses produits commerciaux étaient déployés, notamment par leur propension à diffuser des informations erronées, connues sous le nom d'hallucinations.

    Mais parmi les nombreux problèmes qui le préoccupent, il a déclaré qu'il se concentrait sur les droits d'auteur, car « il était réellement possible de faire quelque chose ». Suchir Balaji a reconnu qu'il s'agissait d'une opinion impopulaire au sein de la communauté des chercheurs en IA, qui a l'habitude de puiser des données sur Internet. Cela dit, Suchir Balaji a ajouté que les chercheurs en IA vont finir par changer d'avis et que c'est une question de temps.

    John Schulman, qui a démissionné d'OpenAI en août 2024, a déclaré que Suchir Balaji et lui avaient quitté OpenAI le même jour, par coïncidence, et qu'ils avaient fêté leur départ avec d'autres collègues le soir même, en dînant et en buvant un verre dans un bar de San Francisco. Un autre des mentors de Suchir Balaji, le cofondateur et scientifique en chef Ilya Sutskever, avait quitté OpenAI quelques mois plus tôt, ce qui a motivé le départ de Suchir Balaji.

    John Schulman a déclaré que Suchir Balaji lui avait fait part, au début de l'année, de son intention de quitter OpenAI et qu'il ne pensait pas qu’une IA meilleure que l'homme était à portée de main, comme le reste de l'entreprise semblait le croire. « Le jeune ingénieur a exprimé son intérêt pour l'obtention d'un doctorat et l'exploration d'idées plus éloignées des sentiers battus sur la manière de construire l'intelligence », a déclaré John Schulman.

    OpenAI a confirmé qu'il s'appuie sur des œuvres protégées par le droit d'auteur

    Ces dernières années, les capacités des chatbots d'IA, comme ChatGPT d'OpenAI, se sont considérablement améliorées ; ils s'appuient sur de grands modèles de langage (LLM) pour produire du contenu pour les utilisateurs. Mais le processus de formation est largement controversé, certains éditeurs accusant OpenAI d'utiliser des œuvres protégées par des droits d'auteur sans autorisation, et un certain nombre d'affaires juridiques sont en cours.

    Défendant ses pratiques commerciales dans un récent procès, OpenAI a déclaré : « les modèles apprennent, comme nous le faisons tous, de ce qui a été fait auparavant. La défense de l'usage équitable existe précisément pour cette raison : encourager et permettre le développement de nouvelles idées qui s'appuient sur des idées antérieures ». Cette défense d'OpenAI est conforme aux précédentes déclarations de l'entreprise sur la formation de ses modèles.

    En janvier 2024, OpenAI affirmait : « étant donné que le droit d'auteur couvre aujourd'hui pratiquement toutes les formes d'expression humaine, il serait impossible d’entraîner les meilleurs modèles d'IA d'aujourd'hui sans utiliser des documents protégés par le droit d'auteur ». OpenAI reconnaît donc ouvertement qu'il utilise des contenus protégés par des droits d'auteurs pour créer ses modèles d'IA. L'entreprise n'a toutefois pas encore été condamnée.

    Plusieurs éditeurs de presse ont poursuivi Microsoft et OpenAI pour violation du droit d'auteur. Parmi les poursuivants, on peut noter les éditeurs de presse de Californie, du Colorado, de l'Illinois, de Floride, du Minnesota et de New York. Certains procès sont en cours, mais le 7 novembre 2024, le juge de district américain Colleen McMahon, à New York, a rejeté une poursuite contre OpenAI qui avait été intentée par les médias Raw Story et AlterNet.

    Selon les experts, la porte de sortie de la situation semble résider dans la conclusion d’accords de licence avec les éditeurs de presse. L'Associated Press et OpenAI ont conclu un accord de licence permettant à OpenAI d'accéder à une partie des archives textuelles du média. Mais ces accords sont controversés.

    Source : billet de blogue

    Et vous ?

    Quel est votre avis sur le sujet ?
    Que pensez-vous du décès subit de l'ancien ingénieur d'OpenAI devenu lanceur d'alerte ?
    Ses révélations seront-elles d'une quelconque utilité dans les affaires judiciaires en cours contre OpenAI ?

    Voir aussi

    L'ancien chercheur d'OpenAI Suchir Balaji, devenu lanceur d'alerte, a été retrouvé mort, après avoir accusé OpenAI de violer des droits d'auteur, Elon Musk a posté une réaction énigmatique

    GPT-5, le prochain grand projet d'OpenAI dans le domaine de l'IA, est en retard sur le calendrier et est très coûteux. L'entreprise manque de sources de données fiables et fait face à des défis techniques

    Des lanceurs d'alerte affirment qu'OpenAI a illégalement interdit à son personnel de divulguer les risques de sécurité liés à son IA en s'appuyant sur des accords contraignants et des menaces de représailles

  2. #122
    Membre confirmé Avatar de Fluxgraveon
    Homme Profil pro
    fleuriste
    Inscrit en
    Mai 2024
    Messages
    176
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : France, Lot (Midi Pyrénées)

    Informations professionnelles :
    Activité : fleuriste

    Informations forums :
    Inscription : Mai 2024
    Messages : 176
    Par défaut
    Bonne année 2025

  3. #123
    Membre éprouvé
    Avatar de calvaire
    Homme Profil pro
    .
    Inscrit en
    Octobre 2019
    Messages
    1 833
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Âge : 42
    Localisation : Singapour

    Informations professionnelles :
    Activité : .
    Secteur : Conseil

    Informations forums :
    Inscription : Octobre 2019
    Messages : 1 833
    Par défaut
    Suchir Balaji, Jeffrey Epstein, et enfin Mike Lynch + Stephen Chamberlain, morts par "accident" à 48 heures d'intervalle.
    Le hasard et la "chance" pour certains ca existe, mais c'est tout de meme assez étrange tous cela...

    Bien sur nous ne sommes pas complotiste ici, il n y'a que Poutine qui tue des personnes qui dérange.

  4. #124
    Chroniqueur Actualités

    Homme Profil pro
    Rédacteur technique
    Inscrit en
    Juin 2023
    Messages
    1 104
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : Bénin

    Informations professionnelles :
    Activité : Rédacteur technique
    Secteur : High Tech - Éditeur de logiciels

    Informations forums :
    Inscription : Juin 2023
    Messages : 1 104
    Par défaut OpenAI donne des détails sur la façon dont il entend conduire sa restructuration en une entité à but lucratif
    OpenAI annonce qu'il amorce sa refonte en une société à but lucratif en 2025 et que cela lui permettra d'attirer plus de capitaux
    mais l'initiative est critiquée et combattue par des voix telles qu'Elon Musk

    OpenAI rend publics les premiers détails de son projet visant à se restructurer en une structure à but lucratif. Le fabricant de ChatGPT a annoncé que sa branche à but lucratif actuelle deviendra une société d'utilité publique (public benefit corporation - PBC) avec des actions ordinaires. Cette nouvelle société ne sera plus sous le contrôle de son conseil d'administration et fonctionnera davantage comme une startup à forte croissance. OpenAI estime que cela est nécessaire pour attirer plus de capitaux afin d'aller au bout de sa mission, qui est de construire une intelligence artificielle générale (AGI). Mais l'annonce suscite beaucoup de scepticisme.

    OpenAI donne des détails sur la façon dont il entend conduire sa restructuration

    OpenAI a eu jusqu'ici une structure inédite qui peut parfois s'avérer compliquée à déchiffrer pour certains. Cette confusion est intervenue en 2019 après qu'OpenAI, qui a été fondé à l'origine en tant que société à but non lucratif, a opéré une première restructuration. En gros, l'on distingue OpenAI LP (Limited Partnership), qui est une entité à profit plafonné qui a ouvert l'entreprise aux investissements tiers. Ces derniers sont soumis à « un rendement plafonné ».


    OpenAI LP est responsable du développement des modèles d'IA, des produits et des solutions. Toutefois, cette entité n'est pas autonome. Les activités d'OpenAI LP sont supervisées par le conseil d'administration de l'organisation à but non lucratif (OpenAI inc.) de départ. Cette première restructuration a vu l'arrivée d'investisseurs tels que Microsoft, qui a injecté un milliard de dollars dans OpenAI dès 2019, avant de rallonger de plusieurs milliards de dollars en 2023.

    Le 26 décembre 2024, OpenAI a annoncé que l'entreprise va subir pour une nouvelle transformation structurelle. OpenAI va transformer sa branche à but lucratif actuelle en une société d'utilité publique (public benefit corporation - PBC) pour superviser les opérations commerciales en 2025. À travers cette refonte, OpenAI vise à supprimer certaines restrictions liées au statut à but non lucratif afin de fonctionner davantage comme une startup à forte croissance :

    Citation Envoyé par OpenAI

    Les centaines de milliards de dollars que les grandes entreprises investissent actuellement dans le développement de l'IA montrent ce qu'il faudra vraiment pour qu'OpenAI poursuive sa mission. Nous avons une fois de plus besoin de lever plus de capitaux que nous ne l'avions imaginé. Les investisseurs veulent nous soutenir, mais, à cette échelle de capital, ils ont besoin de fonds propres conventionnels et de moins d'actions structurelles.
    « Le PBC est une structure utilisée par beaucoup d'autres qui exige de l'entreprise qu'elle équilibre les intérêts des actionnaires, les intérêts des parties prenantes et l'intérêt public dans sa prise de décision. Elle nous permettra de lever les capitaux nécessaires dans des conditions conventionnelles, comme d'autres acteurs de ce secteur », a déclaré OpenAI. Cette forme d'entreprise est de plus en plus courante, avec de grands noms tels que xAI et Anthropic.

    « Cette structure vise à générer des profits tout en bénéficiant à l'intérêt public. La branche à but non lucratif prendrait des parts dans la société d'intérêt public », a déclaré OpenAI, ajoutant que cela permettra de soutenir au mieux sa mission consistant à faire en sorte que l'AGI profite à l'ensemble de l'humanité.

    OpenAI subit diverses pressions pour se restructurer en une entité à but lucratif

    La pression exercée sur OpenAI pour qu'il se restructure serait liée à sa valorisation de 157 milliards de dollars. OpenAI a atteint ce seuil lors de son tour de table de 6,6 milliards de dollars en octobre 2024. Selon certains rapports, l'entreprise dispose de deux ans pour procéder à cette conversion, faute de quoi les investisseurs pourraient demander le remboursement de leur argent. Cela intervient deux ans après l'arrivée de ChatGPT et le boom de l'IA générative.

    OpenAI se préparant à concurrencer xAI d'Elon Musk ainsi que Microsoft, Google, Amazon et Anthropic sur un marché qui, selon les prévisions, devrait atteindre un chiffre d'affaires de plus de 1 000 milliards de dollars d'ici une dizaine d'années. Dans le même temps, le développement de grands modèles de langage (LLM) et d'autres produits d'IA générative nécessite un investissement continu dans des processeurs surpuissants (GPU) et dans l'infrastructure cloud.

    OpenAI prévoit environ 5 milliards de dollars de pertes sur 3,7 milliards de dollars de revenus cette année. Ces chiffres augmentent rapidement. En se transformant en une PBC, OpenAI affirme qu'il peut poursuivre ses activités commerciales, tout en embauchant séparément du personnel pour sa branche à but non lucratif et en permettant à cette dernière d'entreprendre des activités caritatives dans les domaines des soins de santé, de l'éducation et de la science.

    Elon Musk et d'autres voix dénoncent ce changement structurel initié par OpenAI

    Les efforts d'OpenAI pour se restructurer se heurtent à quelques obstacles majeurs. Le plus important est Elon Musk. Il a intenté un procès à OpenAI et a demandé à un tribunal d'empêcher la société de se convertir en société à but lucratif à partir d'un organisme à but non lucratif. Il accuse OpenAI d'avoir rompu ses accords contractuels initiaux. Dans des messages sur X, il a décrit cet effort comme une « arnaque totale » et a affirmé qu'OpenAI est « diabolique ».

    Au début du mois, OpenAI a riposté, alléguant qu'en 2017, « Elon Musk ne voulait pas seulement, mais a en fait créé une société à but lucratif » pour servir de nouvelle structure proposée par l'entreprise. Outre sa guéguerre avec Elon Musk, OpenAI a dû faire face à un exode de talents de haut niveau, en partie en raison de préoccupations selon lesquelles la société s'est concentrée sur la mise sur le marché de produits commerciaux au détriment de la sécurité.

    La directrice technique d'OpenAI, Mira Murati, a annoncé fin septembre 2024 qu'elle quitte l'entreprise après plus de 6 ans. Le même jour, le responsable de la recherche Bob McGrew et Barret Zoph, un vice-président de la recherche, ont annoncé leur départ. Un mois plus tôt, le cofondateur John Schulman avait annoncé son départ pour la startup rivale Anthropic. Plutôt dans l'année, le cofondateur et ancien scientifique en chef, Ilya Sutskever, quittait l'entreprise.

    L'ancien responsable de la sécurité d'OpenAI, Jan Leike, a quitté l'entreprise en même temps qu'Ilya Sutskever et a rejoint le rival Anthropic. Le PDG d'OpenAI, Sam Altman, a déclaré que les départs de plusieurs cadres d'OpenAI n'étaient pas liés à la restructuration potentielle de la société : « nous y réfléchissons, notre conseil d'administration y réfléchit depuis près d'un an, indépendamment, en pensant à ce qu'il faut faire pour passer à l'étape suivante ».

    « Ces dernières années, la culture et les processus de sécurité ont été relégués au second plan par rapport aux produits brillants », avait déclaré Jan Leike lors de son départ. Enfin, OpenAI est empêtré dans de nombreux procès pour violation de droit d'auteur intentés par des artistes, des acteurs et des groupes de médias.

    Source : OpenAI

    Et vous ?

    Quel est votre avis sur le sujet ?
    Que pensez-vous de la décision d'OpenAI de se restructurer en une société d'utilité publique ?
    Quels impacts cette décision pourrait-il avoir sur OpenAI ? Comment cela va-t-il affecter la sécurité de ses produits ?

    Voir aussi

    La transformation d'OpenAI en une entité à but lucratif vise à protéger l'entreprise contre les OPA hostiles et le PDG Sam Altman de toute ingérence extérieure, selon un rapport

    OpenAI s'attend à 5 milliards $ de pertes cette année, et pour échapper à la faillite se restructure en société commerciale et cherche des investisseurs confiants dans la bulle IA pour se renflouer

    OpenAI veut s'affranchir du contrôle exercé par son conseil d'administration à but non lucratif, se restructurer en une société à but lucratif et donner des parts au PDG Sam Altman, selon un rapport

  5. #125
    Chroniqueur Actualités

    Homme Profil pro
    Administrateur de base de données
    Inscrit en
    Mars 2013
    Messages
    9 215
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : Canada

    Informations professionnelles :
    Activité : Administrateur de base de données

    Informations forums :
    Inscription : Mars 2013
    Messages : 9 215
    Par défaut Mort suspecte d’un lanceur d’alerte d’OpenAI : ses parents ne croient pas qu'il se soit suicidé
    Mort suspecte d’un lanceur d’alerte d’OpenAI : ses parents ne croient pas qu'il se soit suicidé et exigent une seconde autopsie
    pour lever le voile sur les circonstances

    Un drame entouré de mystère secoue la communauté technologique. Les parents d’un ancien employé d’OpenAI expriment leurs doutes quant aux circonstances de sa mort, initialement déclarée comme un suicide. Suchir Balaji, devenu lanceur d'alerte concernant les pratiques de l'entreprise en matière de données, a été retrouvé mort dans son appartement à San Francisco le 26 novembre 2024. Il était cité comme témoin dans des affaires judiciaires contre OpenAI comme ayant des « documents pertinents » sur la violation présumée des droits d'auteur par la startup. Suchir Balaji a dénoncé publiquement ce qu'il appelle « la collecte massive et abusive des données » effectuée par OpenAI dans le cadre de la formation de ses modèles d'IA et s'est interrogé sur la légalité de cette pratique.

    La mort tragique, à la fin du mois dernier, de l'ancien chercheur d'OpenAI, Suchir Balaji, retrouvé mort dans son appartement de Lower Haight à la suite d'un suicide apparent, suscite un peu plus d'intrigue.

    Suchir Balaji avait récemment dénoncé l'utilisation par OpenAI d'œuvres protégées par le droit d'auteur pour entraîner son modèle d'intelligence artificielle ChatGPT, dans une interview publiée en octobre par le New York Times. Outre les problèmes juridiques liés à la consommation de matériel protégé par des droits d'auteur, Balaji a déclaré au Times qu'il ne s'agissait pas non plus d'un « modèle durable pour l'écosystème de l'internet dans son ensemble ».

    Le 26 novembre, deux jours avant Thanksgiving, Balaji a été retrouvé mort dans son appartement de Buchanan Street. Le médecin légiste a conclu à un suicide et la police de San Francisco a déclaré qu'il n'y avait « aucune preuve d'acte criminel ».

    La mère de Balaji, Poornima Ramarao, qui vit dans la région de la baie, a déclaré cette semaine au Bay Area News Group qu'elle et son mari « exigent une enquête approfondie » sur la mort de leur fils. Ils ne croient pas qu'il se serait suicidé et affirment que rien dans son état mental ne laissait présager une telle éventualité.

    « Personne ne croit qu'il aurait pu faire cela », a déclaré madame Ramarao au groupe de presse. La mère explique que son mari et elle avaient parlé à leur fils pour la dernière fois le 22 novembre, lors d'un appel téléphonique de 10 minutes au cours duquel il n'avait rien indiqué de grave. Il avait dit qu'il sortait pour aller dîner.

    Des circonstances troubles

    Né en Floride et élevé dans la Bay Area, Balaji a été un prodige dès son plus jeune âge, a déclaré sa mère. Il prononçait son nom à 3 mois ; à 18 mois, il me demandait « d'allumer une lampe pour me remonter le moral » et pouvait reconnaître des mots à 20 mois, a-t-elle ajouté.

    Balaji semble avoir un don pour la technologie, les mathématiques et l'informatique. Il a remporté des trophées et s'est fait connaître, notamment lors des Olympiades informatiques des États-Unis d'Amérique en 2016.

    En 2020, il est allé travailler pour OpenAI, estimant que l'engagement de l'entreprise à fonctionner comme une organisation à but non lucratif était admirable, selon sa mère. Son opinion sur l'entreprise s'est détériorée en 2022, alors qu'il était chargé de recueillir des données sur Internet pour le programme GPT-4 de l'entreprise, a rapporté le New York Times. Ce programme analysait le texte de la quasi-totalité de l'internet afin d'entraîner son programme d'intelligence artificielle.

    Madame Ramarao a déclaré qu'elle n'était pas au courant de la décision de son fils d'exprimer publiquement ses inquiétudes au sujet d'OpenAI jusqu'à ce que le journal publie son interview. Si elle s'est immédiatement inquiétée de sa décision (allant jusqu'à lui demander de consulter un avocat spécialisé dans les droits d'auteur) elle s'est également déclarée fière du courage de son fils.

    Il n'a cessé de m'assurer : « Maman, je ne fais rien de mal, va voir l'article. Je dis simplement, à mon avis, qu'il n'y a rien de mal là-dedans », a déclaré madame Ramarao, elle-même ancienne employée de Microsoft qui a travaillé sur son programme de cloud computing Azure. « Je l'ai soutenu. Je ne l'ai pas critiqué. Je lui ai dit : « Je suis fière de toi, parce que tu as tes propres opinions et que tu sais ce qui est bien et ce qui est mal ».

    Après avoir quitté l'entreprise, Balaji a décidé de créer une association à but non lucratif, centrée sur l'apprentissage automatique et les neurosciences, a déclaré madame Ramarao. Il s'est déjà entretenu avec au moins un investisseur en capital-risque pour obtenir un financement de départ. « Je lui demande, par exemple, comment il va gagner sa vie », a déclaré madame Ramarao. Elle se souvient que son fils a tenté à plusieurs reprises d'apaiser les inquiétudes concernant ses finances, en suggérant que « l'argent n'est pas important pour moi - je veux offrir un service à l'humanité ».

    Balaji semblait également avoir un emploi du temps chargé. Il a fêté ses 26 ans lors d'une randonnée dans les îles Catalina avec plusieurs amis du lycée. Ce type de voyage était monnaie courante pour lui : en avril, il était parti avec plusieurs amis en Patagonie et en Amérique du Sud. Balaji a parlé à ses parents pour la dernière fois le 22 novembre, lors d'un appel téléphonique de 10 minutes qui a porté sur son récent voyage et qui s'est terminé par l'évocation du dîner.

    « Il était très heureux », a déclaré Ramarao. « Il s'est éclaté. Il a passé l'un des meilleurs moments de sa vie ».

    Ramarao se souvient d'avoir appelé son fils peu après midi le 23 novembre, mais elle a dit qu'il avait sonné une fois et qu'il était tombé sur la messagerie vocale. Estimant qu'il était occupé avec des amis, elle n'a pas essayé de se rendre à son appartement avant le 25 novembre, date à laquelle elle a frappé mais n'a pas obtenu de réponse. Elle dit avoir appelé les autorités le soir même, mais un centre de répartition de la police lui aurait dit qu'il n'y avait pas grand-chose à faire ce jour-là. Elle a fait un suivi le 26 novembre et la police de San Francisco a retrouvé le corps de Balaji dans son appartement.

    Ramarao a déclaré qu'elle n'a été informée de la mort de son fils que lorsqu'une civière est apparue devant l'appartement de Balaji. Elle n'a été autorisée à entrer que le lendemain.

    « Je ne pourrai jamais oublier cette tragédie », a déclaré madame Ramarao. « Mon cœur s'est brisé ».

    Elle a remis en question l'enquête menée par les autorités sur la mort de son fils, affirmant que la police de San Francisco avait classé l'affaire et l'avait confiée au bureau du médecin légiste du comté dans l'heure qui a suivi la découverte du corps de Balaji. Elle a déclaré qu'elle et son mari avaient depuis demandé une seconde autopsie du corps de Balaji. Elle a refusé de divulguer les documents issus de cette autopsie. Son avocat, Phil Kearney, a refusé de commenter les résultats de l'autopsie indépendante de la famille.

    Nom : suh.png
Affichages : 11592
Taille : 498,5 Ko
    Suchir Balaji et sa maman, Poornima Ramarao

    L'attente de la vérité

    La seconde autopsie pourrait devenir un point pivot dans cette affaire, apportant peut-être des réponses sur les causes réelles de cette tragédie. Pour l’instant, la famille espère que cette démarche permettra de lever le voile sur des zones d’ombre. « Nous ne voulons qu’une chose : la vérité », conclut le père du défunt, visiblement ému.

    Cette affaire, déjà très médiatisée, pourrait avoir des répercussions importantes, non seulement pour OpenAI, mais aussi pour les standards de gouvernance et d’éthique dans l’industrie technologique. En attendant, l’attention demeure focalisée sur les résultats de la nouvelle autopsie et sur les éventuelles révélations à venir.

    La mort de Balaji a provoqué une onde de choc dans la Silicon Valley et dans le secteur de l'intelligence artificielle.

    Il s'est retrouvé sous les feux de la rampe à la fin du mois d'octobre lorsqu'il a accusé son ancien employeur, OpenAI, d'avoir enfreint la loi fédérale sur les droits d'auteur en siphonnant des données provenant de l'ensemble de l'internet pour former son chatbot à succès, ChatGPT.

    Ses préoccupations ont confirmé les allégations formulées ces dernières années par des auteurs, des scénaristes et des programmeurs informatiques qui affirment qu'OpenAI a volé leur contenu sans autorisation, en violation des lois américaines sur « l'utilisation équitable » qui régissent l'utilisation d'œuvres publiées antérieurement.

    Les entreprises de médias ont été parmi les premières à poursuivre la société.

    OpenAI assure ne pas pouvoir gagner de l'argent sans utiliser gratuitement du matériel protégé par le droit d'auteur

    La formation des modèles d’IA, tels que ceux développés par OpenAI, nécessite une quantité massive de données. Selon OpenAI, les matériaux disponibles dans le domaine public ne suffisent pas pour créer des modèles capables de répondre aux besoins actuels des utilisateurs. L’entreprise affirme que le droit d’auteur couvre pratiquement toutes les formes d’expression humaine, rendant ainsi indispensable l’utilisation de contenus protégés pour former des IA performantes.

    Cette position a provoqué une vague de réactions négatives, notamment de la part de grandes institutions comme le New York Times et la Authors Guild. Ces entités accusent OpenAI de violer massivement les droits d’auteur et de profiter commercialement des œuvres protégées sans compensation adéquate. Les auteurs célèbres, tels que John Grisham et George R.R. Martin, ont également rejoint les rangs des plaignants, soulignant que l’utilisation non autorisée de leurs œuvres menace leur subsistance.

    OpenAI supplie le Parlement britannique de l'autoriser à utiliser des œuvres protégées par le droit d'auteur, car il lui serait « impossible » d'entraîner ses modèles d'intelligence artificielle - et de poursuivre la croissance de son entreprise, qui pèse plusieurs milliards de dollars - sans ces œuvres.

    La société d'intelligence artificielle a déclaré dans un document soumis à une sous-commission de la Chambre des Lords que l'utilisation exclusive de contenus du domaine public serait insuffisante pour entraîner le type de grands modèles de langage (LLM) qu'elle construit, suggérant que l'entreprise doit donc être autorisée à utiliser du matériel protégé par le droit d'auteur.

    « Étant donné que le droit d'auteur couvre aujourd'hui pratiquement toutes les formes d'expression humaine - y compris les articles de blog, les photographies, les messages de forum, les bouts de code de logiciel et les documents gouvernementaux - il serait impossible d'entraîner les meilleurs modèles d'IA actuels sans utiliser des documents protégés par le droit d'auteur », a écrit l'entreprise dans son dossier de preuves. « Limiter les données d'entraînement aux livres et dessins du domaine public créés il y a plus d'un siècle pourrait donner lieu à une expérience intéressante, mais ne permettrait pas de fournir des systèmes d'IA répondant aux besoins des citoyens d'aujourd'hui ».

    OpenAI poursuit en insistant dans le document, soumis au comité des communications et du numérique de la Chambre des Lords, sur le fait qu'elle se conforme aux lois sur le droit d'auteur et qu'elle estime que « légalement, la loi sur le droit d'auteur n'interdit pas l'entraînement ».

    Source : interview de Poornima Ramara

    Et vous ?

    Que pensez-vous du fait que les parents ont exigé une seconde autopsie ?

    Les mécanismes actuels de protection des lanceurs d’alerte sont-ils suffisants, notamment dans les secteurs technologiques ?

    Comment garantir que des individus dénonçant des pratiques problématiques puissent le faire sans craindre pour leur sécurité ?

    Les grandes entreprises technologiques doivent-elles être soumises à des régulations spécifiques pour prévenir ce type de situation ?
    Contribuez au club : Corrections, suggestions, critiques, ... : Contactez le service news et Rédigez des actualités

  6. #126
    Chroniqueur Actualités

    Homme Profil pro
    Rédacteur technique
    Inscrit en
    Juin 2023
    Messages
    1 104
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : Bénin

    Informations professionnelles :
    Activité : Rédacteur technique
    Secteur : High Tech - Éditeur de logiciels

    Informations forums :
    Inscription : Juin 2023
    Messages : 1 104
    Par défaut Les parents du lanceur d'alerte d'OpenAI décédé rejettent la thèse du suicide et engagent un détective privé
    Les parents du lanceur d'alerte d'OpenAI décédé tragiquement engagent un détective privé pour faire la lumière sur la mort suspecte du jeune ingénieur
    et demandent l'ouverture d'une enquête par le FBI

    Le lanceur d'alerte d'OpenAI, Suchir Balaji, a été retrouvé mort dans son appartement de San Francisco le 26 novembre 2024, trois mois seulement après qu'il a accusé la société d'avoir violé les lois sur le droit d'auteur pendant le développement de ChatGPT. La police a qualifié sa mort de suicide, mais ses parents ont contesté cette conclusion. S'exprimant lors d'une veillée en l'honneur de Suchir Balaji, son père a déclaré qu'il était la dernière personne à lui avoir parlé, ajoutant qu'il était heureux et ne montrait aucun signe de dépression. La famille soupçonne un acte criminel, a engagé un détective privé et a demandé l'ouverture d'une enquête par le FBI.

    Les parents de Suchir Balaji rejettent la thèse du suicide établie par la police

    La mort de Suchir Balaji est un drame entouré de mystère qui secoue la communauté technologique depuis la fin du mois de novembre 2024. Ancien ingénieur chez OpenAI, le jeune homme de 26 ans avait démissionné en août 2024, avant de devenir un lanceur d'alerte au sujet des pratiques de l'entreprise en matière de données. Il avait accusé OpenAI d'avoir violé les lois sur le droit d'auteur en collectant massivement des données protégées pour former son IA.


    Suchir Balaji a fait quelques sorties dans les médias au cours desquelles il a déclaré que leur travail chez OpenAI a porté préjudice aux artistes, éditeurs de presse, créateurs, écrivains, etc. Il a aussi remis en cause l'utilité et les avantages de ChatGPT, estimant qu'il ne s'agit pas d'un « modèle durable pour l'écosystème d'Internet dans son ensemble ». Malheureusement, Suchir Balaji a été retrouvé mort dans son appartement à San Francisco le 26 novembre 2024.

    Une expertise médico-légale a conclu à un suicide et la police de San Francisco a déclaré qu'il n'y avait « aucune preuve d'acte criminel ». Seulement, les parents de Suchir Balaji ne croient pas à cette version des faits. Une vidéo émouvante du père de Suchir Balaji évoquant la mort de son fils a fait surface sur les réseaux sociaux. Le père de l'ingénieur a déclaré qu'il était la dernière personne à lui avoir parlé avant qu'il ne soit retrouvé mort dans son appartement.

    Les parents de Suchir Balaji soupçonnent un acte criminel et ont demandé l'ouverture d'une enquête par le FBI. « Les parents du lanceur d'alerte d'OpenAI engagent un détective privé après que leur fils ait prétendument mis fin à ses jours, suggérant que leur fils a été tué. Les parents de Suchir Balaji, 26 ans, affirment que leur fils avait prévu de les voir en janvier et prétendent qu'il y avait des signes de dispute », peut-on lire dans un billet X qui a partagé la vidéo.

    Dans la vidéo, le père de l'ingénieur, Balagi Ramamurthy, déclare : « j'ai été la dernière personne à lui parler. Il était plus heureux, pas déprimé ou quoi que ce soit d'autre. Et c'était la semaine de son anniversaire ». Sa mère, Poornima Ramarao, prend ensuite la parole et affirme : « il avait prévu de nous voir en janvier [2025]. C'est la dernière conversation téléphonique qu'il a eue avec quelqu'un. Il est entré dans son appartement et n'en est jamais ressorti ».

    « Il n'y avait pas de lettre de suicide et il n'y avait personne d'autre sur les lieux, cela ne veut pas dire qu'ils peuvent en tirer des conclusions. Et nous avons vu des traces de sang dans la salle de bain, des signes de bagarre dans la salle de bain », poursuit-elle. Les parents du technicien d'origine indienne se sont exprimés devant le public lors d'une veillée organisée en l'honneur du jeune homme de 26 ans. Ces allégations contredisent les faits établis par la police.

    Les parents reçoivent un grand soutien sur les plateformes de médias sociaux

    En réponse à la vidéo des parents de Suchir Balaji, une personne a posté : « je fais confiance à l'intuition de la mère. Les mamans savent, c'est tout ». Un autre a ajouté : « cette histoire est insensée. Je suis heureux que ses parents cherchent la vérité ». Un troisième a écrit : « oui, il y a quelque chose qui ne colle pas... Un lanceur d'alerte meurt dans des circonstances suspectes, il y a des signes de bagarre, pas de mot, et des questions sans réponse ».

    Un autre a écrit : « les circonstances suspectes entourant la mort de Suchir Balaji - un lanceur d'alerte d'OpenAI - sont profondément troublantes. L'absence de lettre de suicide, les signes de lutte et son récent bonheur soulèvent de sérieux doutes. Le moment choisi, quelques mois seulement après avoir accusé OpenAI de violations du droit d'auteur, ajoute encore aux interrogations ». Pour beaucoup, il faut qu'il y ait « une enquête approfondie et ouverte ».

    Suchir Balaji est décédé trois mois seulement après qu'il a publiquement accusé OpenAI d'avoir violé les lois américaines sur les droits d'auteur lors du développement de ChatGPT. Selon certains rapports, les informations que Suchir Balaji avait fournies étaient censées jouer un rôle clé dans de nombreuses poursuites engagées contre l'entreprise. OpenAI a déclaré que l'ensemble de son travail sur ChatGPT était « légal en vertu des lois sur l'utilisation équitable ».

    Suchir Balaji a déclaré à l'Associated Press qu'il essaierait de témoigner dans les affaires de violation de droits d'auteur les plus sérieuses et qu'il considérait le procès intenté par le New York Times comme « le plus sérieux ». Les avocats du Times l'ont cité dans un dossier déposé au tribunal le 18 novembre 2024 comme quelqu'un qui pourrait avoir des « documents uniques et pertinents » démontrant la violation délibérée du droit d'auteur par OpenAI.

    Selon les récits sur Suchir Balaji, il était très apprécié par ses anciens collègues d'OpenAI. Un cofondateur d'OpenAI a même déclaré récemment que Suchir Balaji avait joué un rôle essentiel dans le développement de certains des produits d'IA générative de l'entreprise. « Les contributions de Suchir à ce projet ont été essentielles, et le projet n'aurait pas abouti sans lui », a déclaré John Schulman, cofondateur d'OpenAI, dans un hommage sur Suchir Balaji.

    Suchir Balaji n'a pas été auditionné par les tribunaux et l'on ne sait pas dans quelle mesure ses déclarations seront admises comme preuves dans les affaires judiciaires après sa mort. Il a également publié un billet de blogue personnel dans lequel il fait part de ses opinions sur le sujet.

    Suchir Balaji avait déclaré qu'il était de plus en plus désillusionné par OpenAI

    Les dossiers de Suchir Balaji ont également été demandés par des avocats dans un procès distinct intenté par des auteurs de livres, dont la comédienne Sarah Silverman. « Il n'est pas normal de s'entraîner sur les données des gens et de leur faire concurrence sur le marché. Je ne pense pas que vous devriez être en mesure de faire cela. Je ne pense pas qu'il soit possible de le faire légalement », a expliqué Suchir Balaji à l'Associated Press fin octobre 2024.

    Il a déclaré à l'Associated Press qu'il était de plus en plus désillusionné par OpenAI, en particulier après les troubles internes qui ont conduit son conseil d'administration à licencier le PDG, Sam Altman, en 2023, avant le réembaucher. Suchir Balaji a déclaré qu'il était globalement préoccupé par la manière dont ses produits commerciaux étaient déployés, notamment par leur propension à diffuser des informations erronées, connues sous le nom d'hallucinations.

    Mais parmi les nombreux problèmes qui le préoccupent, il a déclaré qu'il se concentrait sur les droits d'auteur, car « il était réellement possible de faire quelque chose ». Suchir Balaji a reconnu qu'il s'agissait d'une opinion impopulaire au sein de la communauté des chercheurs en IA, qui a l'habitude de puiser des données sur Internet. Cela dit, Suchir Balaji a ajouté que les chercheurs en IA vont finir par changer d'avis et que c'est une question de temps.

    John Schulman, qui a démissionné d'OpenAI en août 2024, a déclaré que Suchir Balaji et lui avaient quitté OpenAI le même jour, par coïncidence, et qu'ils avaient fêté leur départ avec d'autres collègues le soir même, en dînant et en buvant un verre dans un bar de San Francisco. Un autre des mentors de Suchir Balaji, le cofondateur et scientifique en chef Ilya Sutskever, avait quitté OpenAI quelques mois plus tôt, ce qui a motivé le départ de Suchir Balaji.

    John Schulman a déclaré que Suchir Balaji lui avait fait part, au début de l'année, de son intention de quitter OpenAI et qu'il ne pensait pas qu’une IA meilleure que l'homme était à portée de main, comme le reste de l'entreprise semblait le croire. « Le jeune ingénieur a exprimé son intérêt pour l'obtention d'un doctorat et l'exploration d'idées plus éloignées des sentiers battus sur la manière de construire l'intelligence », a déclaré John Schulman.

    Source : billet de blogue

    Et vous ?

    Quel est votre avis sur le sujet ?
    Que pensez-vous du mystère entourant le décès tragique du lanceur d'alerte d'OpenAI ?
    Selon vous, quelle thèse est la plus plausible ? Que se passerait-il dans le cas d'un acte criminel ?
    Quels impacts cette affaire pourrait-elle avoir sur les lanceurs d'alerte à l'avenir ?

    Voir aussi

    Mort suspecte d'un lanceur d'alerte d'OpenAI : ses parents ne croient pas qu'il se soit suicidé et exigent une seconde autopsie, relançant le débat sur la protection des lanceurs d'alerte dans le secteur tech

    Le lanceur d'alerte d'OpenAI décédé était considéré comme un témoin dans des procès contre l'entreprise, il détenait des « documents pertinents » démontrant les violations de droit d'auteur par OpenAI

    L'ancien chercheur d'OpenAI Suchir Balaji, devenu lanceur d'alerte, a été retrouvé mort, après avoir accusé OpenAI de violer des droits d'auteur, Elon Musk a posté une réaction énigmatique

  7. #127
    Membre éprouvé Avatar de Gunny
    Homme Profil pro
    Développeur Web
    Inscrit en
    Avril 2007
    Messages
    193
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Âge : 37
    Localisation : Danemark

    Informations professionnelles :
    Activité : Développeur Web

    Informations forums :
    Inscription : Avril 2007
    Messages : 193
    Par défaut
    Citation Envoyé par Stéphane le calme Voir le message

    OpenAI assure ne pas pouvoir gagner de l'argent sans utiliser gratuitement du matériel protégé par le droit d'auteur

    OpenAI supplie le Parlement britannique de l'autoriser à utiliser des œuvres protégées par le droit d'auteur, car il lui serait « impossible » d'entraîner ses modèles d'intelligence artificielle - et de poursuivre la croissance de son entreprise, qui pèse plusieurs milliards de dollars - sans ces œuvres.

    La société d'intelligence artificielle a déclaré dans un document soumis à une sous-commission de la Chambre des Lords que l'utilisation exclusive de contenus du domaine public serait insuffisante pour entraîner le type de grands modèles de langage (LLM) qu'elle construit, suggérant que l'entreprise doit donc être autorisée à utiliser du matériel protégé par le droit d'auteur.
    "Notre business model est illégal mais vous devez nous laisser continuer sinon on va devoir fermer boutique "
    Je ne sais pas pourquoi on tolère ce genre de comportement des entreprises de la tech. Vous vous imaginez vous pointer au tribunal avec ce discours pour n'importe quelle autre entreprise ?

  8. #128
    Chroniqueur Actualités

    Homme Profil pro
    Administrateur de base de données
    Inscrit en
    Mars 2013
    Messages
    9 215
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : Canada

    Informations professionnelles :
    Activité : Administrateur de base de données

    Informations forums :
    Inscription : Mars 2013
    Messages : 9 215
    Par défaut OpenAI lance ChatGPT Gov, une version de son chatbot spécialement conçue pour les agences gouvernementales US
    OpenAI lance ChatGPT Gov : cette version de son chatbot spécialement conçue pour les agences gouvernementales américaines,
    devrait répondre à des exigences strictes en matière de sécurité et confidentialité

    OpenAI, soutenue par Microsoft, a annoncé le lancement de ChatGPT Gov, une version spécialement conçue de son chatbot, destinée aux agences gouvernementales américaines. Cette initiative vise à fournir aux institutions fédérales un accès sécurisé aux modèles avancés d'OpenAI, tels que GPT-4o, via une instance cloud Microsoft Azure dédiée, répondant ainsi aux exigences strictes en matière de sécurité et de confidentialité. Il permet aux agences gouvernementales, en tant que clients, d'alimenter les modèles d'OpenAI en « informations sensibles non publiques » tout en opérant dans leurs propres environnements d'hébergement sécurisés, a expliqué Kevin Weil, Chef Produit d'OpenAI.

    Depuis le début de l'année 2024, OpenAI a déclaré que plus de 90 000 employés des gouvernements fédéraux, étatiques et locaux ont généré plus de 18 millions d'invites au sein de ChatGPT, utilisant la technologie pour traduire et résumer des documents, écrire et rédiger des mémos politiques, générer du code et construire des applications.

    L'interface utilisateur de ChatGPT Gov ressemble à celle de ChatGPT Enterprise. La principale différence est que les agences gouvernementales utiliseront ChatGPT Gov dans leur propre cloud commercial Microsoft Azure ou dans le cloud communautaire Azure Government, afin qu'elles puissent « gérer leurs propres exigences en matière de sécurité, de confidentialité et de conformité », a déclaré Felipe Millon, qui dirige les ventes fédérales et la mise sur le marché pour OpenAI.

    ChatGPT Gov offre aux agences gouvernementales des fonctionnalités similaires à celles de ChatGPT Enterprise, notamment la possibilité de sauvegarder et de partager des conversations au sein d'un espace de travail, de créer des GPT personnalisés et de disposer d'une console administrative pour les équipes informatiques. Cette personnalisation permet aux institutions de gérer efficacement des données sensibles non publiques, tout en optimisant leurs opérations internes.

    OpenAI affirme que cette démarche s'aligne sur son engagement à soutenir l'intérêt national et le bien public, conformément aux valeurs démocratiques. En rendant ses produits accessibles au gouvernement américain, l'entreprise souhaite permettre aux décideurs d'intégrer de manière responsable ces capacités afin d'améliorer les services offerts aux citoyens.

    Un usage qui faisait déjà débat en raison de ses effets potentiellement néfastes

    Depuis que l'intelligence artificielle est utilisée par les agences gouvernementales, elle fait l'objet d'un examen minutieux en raison de ses effets potentiellement néfastes, en particulier pour les populations vulnérables et minoritaires, et des préoccupations relatives à la protection de la vie privée. L'utilisation de l'IA par la police a conduit à un certain nombre d'arrestations injustifiées et, en Californie, les électeurs ont rejeté un projet visant à remplacer le système de libération sous caution de l'État par un algorithme, craignant qu'il n'accroisse les préjugés.

    Un porte-parole d'OpenAI a déclaré que l'entreprise reconnaît que l'utilisation de l'IA par le gouvernement comporte des considérations particulières, et OpenAI a écrit dans un article de blog mardi que le produit est soumis à ses politiques d'utilisation.

    Citation Envoyé par OpenAI
    Nous pensons que l'adoption de l'intelligence artificielle par le gouvernement américain peut stimuler l'efficacité et la productivité et qu'elle est essentielle pour maintenir et renforcer le leadership mondial de l'Amérique dans cette technologie. Chez OpenAI, nous développons l'IA pour aider les gens à résoudre des problèmes difficiles, et nous voyons un énorme potentiel pour ces outils afin d'aider le secteur public à relever des défis complexes, qu'il s'agisse d'améliorer la santé publique et les infrastructures ou de renforcer la sécurité nationale. En mettant nos produits à la disposition du gouvernement américain, nous voulons nous assurer que l'IA sert l'intérêt national et le bien public, dans le respect des valeurs démocratiques, tout en donnant aux décideurs politiques les moyens d'intégrer ces capacités de manière responsable afin de fournir de meilleurs services au peuple américain.

    Nous annonçons aujourd'hui ChatGPT Gov, une nouvelle version adaptée de ChatGPT conçue pour fournir aux agences gouvernementales américaines un moyen supplémentaire d'accéder aux modèles d'OpenAI.

    Les agences peuvent déployer ChatGPT Gov dans leur propre cloud commercial Microsoft Azure ou dans leur cloud gouvernemental Azure, au-dessus du service OpenAI de Microsoft Azure. L'auto-hébergement de ChatGPT Gov permet aux agences de gérer plus facilement leurs propres exigences en matière de sécurité, de confidentialité et de conformité, telles que les frameworks de cybersécurité rigoureux (IL5, CJIS, ITAR, FedRAMP High). En outre, nous pensons que cette infrastructure accélérera l'autorisation interne des outils d'OpenAI pour le traitement des données sensibles non publiques. L'utilisation de ChatGPT Gov est soumise à nos politiques d'utilisation, comme les autres services d'OpenAI.
    Aaron Wilkowitz, ingénieur en solutions chez OpenAI, a fait la démo d'une journée dans la vie d'un nouvel employé de l'administration Trump aux journalistes, permettant à la personne de se connecter à ChatGPT Gov et de créer un plan de cinq semaines pour certaines de ses tâches, puis d'analyser une photo téléchargée du même plan imprimé avec des notes et des marques partout. Wilkowitz a également montré comment ChatGPT Gov pouvait rédiger un mémo à l'intention du service juridique et de la conformité, résumant son propre plan de travail généré par l'IA, puis traduire ce mémo dans différentes langues.

    Un contexte de concurrence accrue dans le domaine de l'IA

    Le lancement de ChatGPT Gov intervient dans un contexte de concurrence croissante dans le secteur de l'intelligence artificielle. R1, le LLM open source de la startup chinoise DeepSeek, a récemment surpassé ChatGPT en termes de téléchargements sur l'App Store, suscitant une attention accrue des investisseurs envers les entreprises technologiques américaines et leurs investissements en IA.

    La situation a été particulièrement marquante à cause du contexte.

    En octobre 2022, le gouvernement américain a commencé à mettre en place des contrôles à l'exportation qui restreignaient considérablement l'accès des entreprises chinoises spécialisées dans l'IA à des puces de pointe telles que la H100 de Nvidia. Cette mesure a posé un problème à DeepSeek. L'entreprise avait commencé avec un stock de 10 000 H100, mais elle avait besoin de plus pour concurrencer des entreprises comme OpenAI et Meta. « Le problème auquel nous sommes confrontés n'a jamais été le financement, mais le contrôle des exportations de puces avancées », a déclaré Liang Wenfeng à 36Kr lors d'une seconde interview en 2024.

    DeepSeek a dû trouver des méthodes plus efficaces pour entraîner ses modèles. Ils ont optimisé l'architecture de leurs modèles à l'aide d'une batterie d'astuces techniques : schémas de communication personnalisés entre les puces, réduction de la taille des champs pour économiser de la mémoire et utilisation innovante de l'approche « mix-of-models » (mélange de modèles), explique Wendy Chang, ingénieure en logiciel devenue analyste politique à l'Institut Mercator d'études sur la Chine. « Bon nombre de ces approches ne sont pas nouvelles, mais les combiner avec succès pour produire un modèle de pointe est un exploit remarquable ».

    DeepSeek a également réalisé des progrès significatifs en matière d'attention latente multitêtes (MLA) et de mélange d'experts, deux concepts techniques qui rendent les modèles DeepSeek plus rentables en exigeant moins de ressources informatiques pour l'entraînement. En fait, le dernier modèle de DeepSeek est si efficace qu'il a nécessité un dixième de la puissance de calcul du modèle Llama 3.1 de Meta, selon l'institut de recherche Epoch AI.

    Les résultats ont été salué par le PDG d'OpenAI, Sam Altman lui-même, provoquant par la même occasion une chute de 17 % des actions de NVIDIA. Nvidia ne voit pas DeepSeek comme une menace et a tenu à rassurer les investisseurs après l'hécatombe sur les marchés. Nvidia estime que les progrès de DeepSeek montrent l'utilité de ses puces pour le marché chinois et que davantage de ses puces seront nécessaires à l'avenir pour répondre à la demande des services de DeepSeek.

    Yann LeCun, responsable scientifique de la division IA chez Meta, a une perspective différente. Il a fait remarquer que la réussite de DeepSeek ne consistait pas à placer la Chine devant les États-Unis dans le secteur de l'IA, mais à s'assurer que les modèles open source restent en tête.

    « Ce n'est pas que l'IA chinoise surpasse les États-Unis, mais plutôt que les modèles open source surpassent les modèles propriétaires », a-t-il déclaré. Selon lui, DeepSeek a bénéficié de l'open source et de la recherche ouverte. « Ils ont trouvé de nouvelles idées et les ont développées en s'appuyant sur le travail d'autres personnes. Comme leur travail est publié et qu'il s'agit d'une source ouverte, tout le monde peut en profiter », a déclaré Yann LeCun.

    « C'est la force de la recherche ouverte et de l'open source », a-t-il ajouté. DeepSeek partage les mêmes attributs que Llama, les deux étant open source. Leur rival, OpenAI, qui était à l'origine censé développer une IA ouverte et accessible à tous, a depuis fermé ses sources, en opposition avec sa mission initiale.

    Nom : yann.png
Affichages : 3753
Taille : 71,8 Ko

    Stargate : le nouveau projet de 500 milliards de dollars annoncé par Donald Trump en matière d'IA

    Le président américain Donald Trump a annoncé un investissement du secteur privé pour financer l'infrastructure de l'intelligence artificielle, dans le but de dépasser les pays rivaux dans cette technologie essentielle pour les entreprises. Qualifiant ce projet d'infrastructure d'intelligence artificielle de « loin » le plus important de l'histoire, Trump a déclaré que la coentreprise appelée Stargate construirait des centres de données et créerait plus de 100 000 emplois aux États-Unis.

    Le lancement de Stargate représente plus qu'un simple engagement financier sans précédent en faveur du développement de l'intelligence artificielle. Il marque un moment décisif où l'intelligence artificielle passe du statut de simple recherche technologique à celui de pierre angulaire de la stratégie nationale.

    Enjeux et perspectives

    Si l'intégration de ChatGPT Gov représente une avancée significative pour la modernisation des services publics, elle soulève également des questions importantes. La protection des données sensibles, les biais des algorithmes sont autant de défis que le gouvernement et OpenAI devront relever pour garantir une utilisation responsable et bénéfique de ces technologies.

    Le lancement de ChatGPT Gov par OpenAI marque une étape importante dans l'adoption de l'intelligence artificielle par le secteur public américain. Cette initiative pourrait transformer la manière dont les agences gouvernementales interagissent avec les citoyens et gèrent les informations, tout en posant des défis en matière de sécurité, d'éthique et de gouvernance des données.

    Source : OpenAI

    Et vous ?

    L’adoption de ChatGPT par le gouvernement américain pourrait-elle renforcer la souveraineté technologique des États-Unis ou, au contraire, créer une dépendance excessive à OpenAI et Microsoft ?

    Comment garantir que les données sensibles traitées par ChatGPT Gov restent protégées face aux menaces cybernétiques et aux risques d’ingérence étrangère ?

    ChatGPT Gov peut-il réellement améliorer l’efficacité des agences gouvernementales ou s’agit-il d’un simple effet d’annonce ?

    Quelles tâches spécifiques les administrations pourraient-elles déléguer à ChatGPT sans risquer une perte de contrôle humain sur les décisions ?

    L’intelligence artificielle est-elle une solution aux lourdeurs bureaucratiques ou risque-t-elle de les aggraver en générant des erreurs et des biais ?

    Voir aussi :

    Donald Trump accusé d'utiliser l'IA pour rédiger des décrets « glissants » avec des formulations « maladroites » et des erreurs typographiques. Les experts s'inquiètent des implications légales potentielles
    Contribuez au club : Corrections, suggestions, critiques, ... : Contactez le service news et Rédigez des actualités

  9. #129
    Membre éprouvé
    Avatar de calvaire
    Homme Profil pro
    .
    Inscrit en
    Octobre 2019
    Messages
    1 833
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Âge : 42
    Localisation : Singapour

    Informations professionnelles :
    Activité : .
    Secteur : Conseil

    Informations forums :
    Inscription : Octobre 2019
    Messages : 1 833
    Par défaut
    c'est une bonne idée, je pense qu'une ia sur les sites des gouvernements serait un plus pour nous aider a y faire les démarches.
    a Singapour sa m'aurait bien aidé pour me lister toute les chose a faire et comment le faire, mais en France c'est pareil.

    l'ia ayant acces en france au revenue/impôts situations familiale, elle pourrait même faire un petit recap de notre situation et des aides qu'on pourrait avoir ou des réductions d’impôts qu'on pourrait bénéficier.
    j'irais meme plus loins, elle pourrait même remplacer france travail, en ayant accès aux diplômes et cv, elle pourrait te coacher pour refaire le cv et d'orienter vers des postes pertinents proche de ton adresse déclaré.

  10. #130
    Chroniqueur Actualités

    Homme Profil pro
    Rédacteur technique
    Inscrit en
    Juin 2023
    Messages
    1 104
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : Bénin

    Informations professionnelles :
    Activité : Rédacteur technique
    Secteur : High Tech - Éditeur de logiciels

    Informations forums :
    Inscription : Juin 2023
    Messages : 1 104
    Par défaut Un lanceur d'alerte d'OpenAI a été retrouvé mort dans son appartement. Sa mère veut maintenant des réponses
    Un lanceur d'alerte d'OpenAI a été retrouvé mort dans son appartement. Sa mère veut maintenant des réponses
    la mort de l'ingénieur logiciel dans des circonstances troubles reste un mystère

    Le débat autour de la mort du lanceur d'alerte d'OpenAI Suchir Balaji ne s'arrête pas. Suchir Balaji est mort d'une blessure par balle à la tête. Son corps a été retrouvé dans son appartement à San Francisco et les médecins légistes ont conclu à un suicide. Mais ses parents rejettent catégoriquement la thèse du suicide et appellent à une enquête plus approfondie sur les circonstances troubles de la mort de leur enfant. L'ingénieur logiciel de 26 ans avait démissionné d'OpenAI, avant d'accuser publiquement l'entreprise de violer la loi sur le droit d'auteur. Suchir Balaji est mort alors qu'il était cité comme témoin dans des actions en justice contre OpenAI.

    Qui était Suchir Balaji et quel était son rôle au sein d'OpenAI avant démission ?

    Suchir Balaji, 26 ans, était un ingénieur logiciel. En 2021, il a obtenu une licence en informatique à l'université de Californie à Berkeley. Pendant ses études, il a effectué un stage à Scale AI en 2019. Avant de commencer ses études à l'UC Berkeley, Suchir Balaji avait pris une année sabbatique pour travailler comme ingénieur logiciel sur le forum en ligne Quora. Un ami qui a travaillé avec Suchir Balaji a déclaré que Scale AI semblait espérer qu'il reviendrait.

    Toutefois, Suchir Balaji a été attiré par OpenAI, où il avait également effectué un stage. L'un des cofondateurs d'OpenAI, John Schulman, l'a directement recruté à sa sortie de l'université pour un emploi à temps plein. Avant de quitter OpenAI en août dernier, Suchir Balaji avait passé quatre ans parmi les meilleurs chercheurs de l'entreprise, ayant contribué au développement de son grand modèle de langage GPT-4, la technologie sous-jacente de ChatGPT.

    Nom : 228503787bae126cd2a4675a9e14fa7b5ac90f14.jpg
Affichages : 2104
Taille : 51,4 Ko
    Suchir Balaji, ancien ingénieur d'OpenAI

    Suchir Balaji s'est consacré à l'organisation des énormes ensembles de données utilisés pour former GPT-4. C'est ce travail qui a amené Suchir Balaji à s'interroger sur la technologie qu'il avait contribué à mettre au point, en particulier après que les éditeurs et les créateurs de contenus ont commencé à poursuivre OpenAI en justice. Cette vision l'a aidé à construire son opinion selon laquelle OpenAI enfreignait la loi en faisant des copies de contenu en ligne.

    OpenAI est accusé de violation de droit d'auteur par les plaignants, qui réclament des lois pour protéger leurs moyens de subsistance contre l'essor de l'IA. Suchir Balaji partageait l'avis de ces travailleurs. Il a quitté OpenAI en août 2024, est devenu un lanceur d'alerte et attiré l'attention sur les pratiques de l'entreprise.

    La désillusion : Suchir Balaji était mécontent à l'égard de la trajectoire d'OpenAI

    OpenAI a été le premier emploi de Suchir Balaji à la sortie de l'université, un bond prodigieux qui, pour ses parents, était tout à fait prévisible. Mais trois amis ont déclaré à Fortune qu'au fil du temps, Suchir Balaji semblait se désillusionner peu à peu, partageant des mèmes pour communiquer son mécontentement à l'égard de la trajectoire d'OpenAI. D'après les témoignages de ses amis, il désapprouvait notamment de nombreuses pratiques de l'entreprise.

    L'un des amis raconte que Suchir Balaji n'était pas d'accord avec l'approche d'OpenAI pour parvenir à l'intelligence générale artificielle (AGI), l'étoile Polaire du secteur de l'IA. Suchir Balaji se plaignait qu'OpenAI, qui a commencé comme une organisation à but non lucratif et qui a progressivement évolué vers une entreprise commerciale, se concentrait trop sur la vente de logiciels et n'était plus prête à investir suffisamment dans le domaine de la recherche.

    Suchir Balaji aurait dit en plaisantant à des amis qu’AGI était l'abréviation de « adjusted gross income » (revenu brut ajusté). Ses amis ne se souviennent pas toutefois que Suchir Balaji ait fait part de ses préoccupations concernant l'approche de son ancien employeur en matière de droits d'auteur. Certains amis de longue date ont déclaré avoir été surpris lorsque Suchir Balaji a décidé de quitter OpenAI, tandis que d'autres ont déclaré l'avoir senti venir.

    Suchir Balaji est parti en août 2024, le même mois que John Schulman. John Schulman qui a lui aussi fait une sortie très médiatisée. Tous les amis et membres de la famille interrogés par Fortune ont déclaré que les premiers mois de Suchir Balaji en dehors d'OpenAI avaient été normaux.

    Il avait conseillé au moins une startup d'IA et s'était promené avec sa moto Yamaha dans San Francisco, en réfléchissant à ce qu'il allait faire ensuite. Cela dit, ses proches ignoraient qu'il avait l'intention de devenir un lanceur d'alerte sur ce qu'il considérait comme des violations flagrantes de la loi par OpenAI.

    Le lanceur d'alerte : Suchir Balaji critique les pratiques de son ancien employeur

    L'ancien ingénieur d'OpenAI a d'abord fait part de ses préoccupations au New York Times, qui les a rapportées dans un portrait de Suchir Balaji publié en octobre 2024. Notons que le New York Times poursuit également OpenAI pour utilisation non autorisée de ses articles de presse par ChatGPT. Le témoignage de Suchir Balaji constituait donc un élément à charge que la publication américaine pouvait utiliser dans son procès très médiatisé contre OpenAI.

    Sa mère, Poornima Ramarao, ne s'attendait pas à ce que son fils se prononce contre OpenAI, surtout de manière aussi publique. Elle avait eu l'impression qu'il n'était pas satisfait d'OpenAI au moment où il l'avait quittée. Mais lorsque l'article du New York Times a été publié, elle a été prise au dépourvu.

    Dans une série d'entretiens, Suchir Balaji a expliqué à Cade Metz, journaliste du New York Times spécialisé dans les technologies, qu'il pensait qu'OpenAI causerait plus de tort que de bien à la société, et il a expliqué que la startup violait les lois sur le droit d'auteur en se fondant sur sa propre compréhension de la manière dont ses modèles sont formés. Cade Metz a publié son article en octobre 2024, ce qui a ravivé les critiques de longue date contre OpenAI.

    Le même jour, Suchir Balaji a mis en ligne un essai détaillé sur son site Web personnel, expliquant qu'OpenAI enfreignait les lois sur l'utilisation équitable. Il a également déclaré à l'Associated Press qu'il essaierait de témoigner dans les affaires de violation de droits d'auteur les plus sérieuses contre OpenAI.

    Il a ajouté qu'il considérait le procès intenté par le New York Times comme « le plus sérieux ». Les avocats du Times l'ont cité dans un dossier déposé au tribunal le 18 novembre 2024 comme quelqu'un qui pourrait avoir des « documents uniques et pertinents » démontrant la violation délibérée du droit d'auteur par OpenAI.

    Suchir Balaji n'est pas le seul ancien employé à critiquer publiquement OpenAI

    Suchir Balaji n'a pas été le premier ancien employé d'OpenAI à s'exprimer contre de l'entreprise. Un groupe de neuf personnes s'était déjà manifesté auprès du New York Times quelques mois auparavant, dénonçant une culture d'imprudence et une détérioration des protocoles de sécurité. Selon ces critiques, cette situation à exacerbée par le licenciement spectaculaire, puis le retour immédiat, du cofondateur et PDG Sam Altman au mois de novembre 2023.

    Contrairement à ce groupe d'employés, Suchir Balaji n'a pas divulgué d'informations internes inconnues jusqu'alors sur l'entreprise, ce qui a amené certains à contester sa classification en tant que « lanceur d'alerte ». Certains critiques ont déclaré qu'il ne maîtrise pas les dispositions de la loi sur le droit d'auteur. Un avocat spécialisé dans la propriété intellectuelle affirme que l'analyse de Suchir Balaji « ne comprend pas la loi de manière fondamentale ».

    Un autre avocat, Bradley Hulbert, spécialiste de la propriété intellectuelle, a déclaré à Fortune que l'article publié par Suchir Balaji ressemble à « l'argumentation d'un non-juriste très intelligent qui s'est documenté sur le sujet, mais n'en a pas une compréhension approfondie ».

    Une mort mystérieuse : les circonstances troubles de la mort du lanceur d'alerte

    Environ un mois après la publication de l'article du New York Times, Suchir Balaji était mort. On ne sait pas exactement combien de temps le corps de Suchir Balaji est resté dans l'appartement avant d'être découvert le 26 novembre 2024. Un drame entouré de mystère secoue la communauté technologique. L'enquête de la police de San Francisco a conclu au suicide de Suchir Balaji, mais ses parents expriment leurs doutes quant aux circonstances de sa mort.

    Dès le jour où elle a appris sa mort, sa mère a commencé à penser que l'affaire de son fils ne faisait pas l'objet d'une enquête appropriée. Ses avocats exposent les faits dans leur plainte contre le service de police, déposée le 31 janvier 2025. D'après la plainte, un représentant du bureau du médecin légiste en chef (OCME) de la ville a informé Poornima Ramarao, environ 40 minutes après la découverte du corps, que son fils Suchir Balaji s'était suicidé.


    L'action en justice affirme qu'aucun agent ou examinateur ne lui a posé de questions sur son fils, même lorsqu'elle les a informés qu'il avait dénoncé OpenAI. Le représentant lui a également dit qu'elle ne serait pas autorisée à voir son corps et que son visage avait été « détruit » lorsqu'une balle lui avait traversé l'œil. L'arme est enregistrée au nom de Suchir Balaji. Il l'avait achetée en janvier 2024. La police a déclaré n'avoir relevé aucune trace d'acte criminel.

    Ayant des doutes, Poornima Ramarao a décidé d'engager un examinateur indépendant, le Dr Joseph Cohen, médecin légiste, pour procéder à une autopsie privée à la mi-décembre. Selon la plainte, le Dr Joseph Cohen a déterminé que la trajectoire de la balle, qui a traversé le milieu de la tête, était « atypique et peu commune » dans les suicides. Ce médecin indépendant aurait également relevé une « contusion » à l'arrière de la tête de Suchir Balaji.

    Après avoir reçu le rapport de Cohen à la mi-décembre, Poornima Ramarao a envoyé une lettre par l'intermédiaire de ses avocats au service de police, à l'OCME et au bureau de l'administrateur municipal de San Francisco, demandant l'ouverture d'une enquête criminelle sur la mort de son fils, la décrivant comme « troublante ».

    Selon la plainte déposée en janvier, ils n'ont jamais reçu de réponse officielle, mais les fonctionnaires de police ont informé « officieusement » ses avocats que les détectives avaient brièvement rouvert l'enquête pour examiner les enregistrements en circuit fermé de l'immeuble, avant de la clore à nouveau.

    Les parents de Suchir Balaji pensent que leur fils a été assassiné

    Poornima Ramarao est de plus en plus convaincue que son fils a été assassiné. Elle affirme que ses avocats l'ont orientée vers un autre enquêteur, le Dr Dinesh Rao, ancien médecin légiste en chef de l'unité de médecine légale du ministère jamaïcain de la Sécurité nationale. Le Dr Dinesh Rao n'a pas visité l'appartement de Suchir Balaji. Il a toutefois pu analyser des photos prises dans l'appartement et qui lui ont été envoyées par Poornima Ramarao.

    Dans son rapport initial de 28 pages, le Dr Dinesh Rao soulève un certain nombre de questions : y a-t-il eu une lettre de suicide ? La police a-t-elle relevé des empreintes digitales sur les lieux ? Sur la base de preuves photographiques limitées, le Dr Dinesh Rao signale également des anomalies, notamment des cheveux qui ne semblent pas appartenir à Suchir Balaji, ainsi que des éclaboussures de sang qui ne semblent pas correspondre à un suicide.

    En l'absence d'un rapport plus complet de la police, que les avocats réclament toujours, Poornima Ramarao s'est appuyée sur les preuves limitées dont elle dispose pour mener une campagne de sensibilisation du public. Le 29 décembre 2024, elle a posté sur X (anciennement Twitter) que la mort de son fils était un « meurtre de sang-froid déclaré par les autorités comme un suicide », demandant une enquête du FBI. Sa demande n'a pas eu de réponse.

    Le message a été vu près de trois millions de fois et a reçu une réponse d'Elon Musk. « Cela ne ressemble pas à un suicide », a-t-il répondu. Elon Musk, qui était cofondateur d'OpenAI, mais qui l'a quittée en 2018 et dirige maintenant une entreprise concurrente, a une querelle de longue date avec Sam Altman d'OpenAI au sujet du statut d'organisation à but non lucratif de l'entreprise, et les deux se disputent souvent sur la plateforme de médias sociaux.

    De nombreuses questions restent sans réponses et les théories se multiplient

    Peu après la mort de Balaji, Poornima Ramarao a déclaré aux journalistes qu'elle ne pointait pas du doigt OpenAI. Depuis lors, ses efforts pour donner un sens à cette tragédie inexplicable se sont heurtés à un monde en ligne foisonnant de théories du complot qui ne demandent qu'à s'accrocher au chagrin et à l'incertitude. Alors qu'elle s'efforce d'obtenir des réponses, une vague de spéculations sans fondement s'est développée parallèlement à la procédure.

    OpenAI a publié une déclaration sur X le 16 janvier 2025, indiquant qu'il avait contacté la police de San Francisco pour offrir son aide en cas de besoin. « Suchir était un membre apprécié de l'équipe et nous avons le cœur brisé par son décès », peut-on lire dans le communiqué publié par OpenAI.

    Le rapport final de la police est attendu pour la fin du mois de février. Tant que la police n'aura pas publié son rapport final, il sera impossible de faire la part des choses. Cela n'a pas empêché les spéculations en ligne, alimentées par la quête de réponses de Poornima Ramarao, sur la mort de Suchir Balaji. Un phénomène similaire à celui du lanceur d'alerte de Boeing qui a été retrouvé mort en mars de l'année dernière. Il se serait également suicidé.

    Daren Firestone, un avocat qui travaille régulièrement avec des lanceurs d'alerte, explique qu'il est courant pour eux de se sentir seuls et de douter. C'est en partie pour cette raison qu'il conseille à ses clients de rester anonymes et de passer par les voies officielles, telles que les lignes d'information du gouvernement.

    « Cela crée une pression énorme sur quelqu'un et un sentiment d'isolement. Et si vous êtes isolé et que vous avez l'impression que le monde est contre vous, même les esprits les plus robustes peuvent être mis à rude épreuve », a expliqué Daren Firestone. Pour l'heure, la mort subite de Suchir Balaji reste un mystère.

    OpenAI a confirmé qu'il s'appuie sur des œuvres protégées par le droit d'auteur

    Ces dernières années, les capacités des chatbots d'IA, comme ChatGPT d'OpenAI, se sont considérablement améliorées ; ils s'appuient sur de grands modèles de langage (LLM) pour produire du contenu pour les utilisateurs. Mais le processus de formation est largement controversé, certains éditeurs accusant OpenAI d'utiliser des œuvres protégées par des droits d'auteur sans autorisation, et un certain nombre d'affaires juridiques sont en cours.

    Défendant ses pratiques commerciales dans un récent procès, OpenAI a déclaré : « les modèles apprennent, comme nous le faisons tous, de ce qui a été fait auparavant. La défense de l'usage équitable existe précisément pour cette raison : encourager et permettre le développement de nouvelles idées qui s'appuient sur des idées antérieures ». Cette défense d'OpenAI est conforme aux précédentes déclarations de l'entreprise sur la formation de ses modèles.

    En janvier 2024, OpenAI affirmait : « étant donné que le droit d'auteur couvre aujourd'hui pratiquement toutes les formes d'expression humaine, il serait impossible d’entraîner les meilleurs modèles d'IA d'aujourd'hui sans utiliser des documents protégés par le droit d'auteur ». OpenAI reconnaît donc ouvertement qu'il utilise des contenus protégés par des droits d'auteurs pour créer ses modèles d'IA. L'entreprise n'a toutefois pas encore été condamnée.

    Plusieurs éditeurs de presse ont poursuivi Microsoft et OpenAI pour violation du droit d'auteur. Parmi les poursuivants, on peut noter les éditeurs de presse de Californie, du Colorado, de l'Illinois, de Floride, du Minnesota et de New York. Certains procès sont en cours, mais le 7 novembre 2024, le juge de district américain Colleen McMahon, à New York, a rejeté une poursuite contre OpenAI qui avait été intentée par les médias Raw Story et AlterNet.

    Selon les experts, la porte de sortie de la situation semble résider dans la conclusion d’accords de licence avec les éditeurs de presse. L'Associated Press et OpenAI ont conclu un accord de licence permettant à OpenAI d'accéder à une partie des archives textuelles du média. Mais ces accords sont controversés.

    Et vous ?

    Quel est votre avis sur le sujet ?

    Voir aussi

    Mort suspecte d'un lanceur d'alerte d'OpenAI : ses parents ne croient pas qu'il se soit suicidé et exigent une seconde autopsie, relançant le débat sur la protection des lanceurs d'alerte dans le secteur tech

    Le lanceur d'alerte d'OpenAI décédé était considéré comme un témoin dans des procès contre l'entreprise, il détenait des « documents pertinents » démontrant les violations de droit d'auteur par OpenAI

    Des lanceurs d'alerte affirment qu'OpenAI a illégalement interdit à son personnel de divulguer les risques de sécurité liés à son IA, en s'appuyant sur des accords contraignants et des menaces de représailles

  11. #131
    Membre éprouvé
    Homme Profil pro
    ingénieur qualité
    Inscrit en
    Mars 2015
    Messages
    1 427
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : Belgique

    Informations professionnelles :
    Activité : ingénieur qualité
    Secteur : Aéronautique - Marine - Espace - Armement

    Informations forums :
    Inscription : Mars 2015
    Messages : 1 427
    Par défaut
    Citation Envoyé par Mathis Lucas Voir le message
    Quel est votre avis sur le sujet ?
    Que la question d'un assassin n'est pas si pertinente que ça, ce n'est pas parce qu'on se tire une balle dans la tête qu'on ne s'est pas suicidé, ou plutôt qu'on a pas été suicidé.
    Un lanceur d'alerte s'attaque à une puissance plus forte que lui. Elle peut donc lui mettre une pression invivable qui peut mener à un craquage (et se donner la mort pour fuir un mal-être trop fort) ou à un acte de sacrifice (se donner la mort pour éviter de mettre son entourage en danger, réel ou perçu).
    Et même si ma définition est (probablement) légalement inexacte je n'appelle pas ça se suicider (se donner la mort volontairement en maitrise de ses capacités mentales etc) mais juste se donner la mort.

Discussions similaires

  1. Réponses: 26
    Dernier message: 30/12/2024, 16h40
  2. Réponses: 1
    Dernier message: 10/12/2018, 17h07
  3. Réponses: 11
    Dernier message: 02/08/2017, 00h36
  4. Réponses: 5
    Dernier message: 11/10/2011, 17h23

Partager

Partager
  • Envoyer la discussion sur Viadeo
  • Envoyer la discussion sur Twitter
  • Envoyer la discussion sur Google
  • Envoyer la discussion sur Facebook
  • Envoyer la discussion sur Digg
  • Envoyer la discussion sur Delicious
  • Envoyer la discussion sur MySpace
  • Envoyer la discussion sur Yahoo