IdentifiantMot de passe
Loading...
Mot de passe oublié ?Je m'inscris ! (gratuit)
Navigation

Inscrivez-vous gratuitement
pour pouvoir participer, suivre les réponses en temps réel, voter pour les messages, poser vos propres questions et recevoir la newsletter

  1. #721
    Membre émérite
    Profil pro
    Développeur Web
    Inscrit en
    Février 2008
    Messages
    2 353
    Détails du profil
    Informations personnelles :
    Localisation : France

    Informations professionnelles :
    Activité : Développeur Web

    Informations forums :
    Inscription : Février 2008
    Messages : 2 353
    Points : 2 645
    Points
    2 645
    Par défaut
    Citation Envoyé par Jules34 Voir le message
    D'une manière générale les fonds américains représentent environ 40 % des fonds investis dans les startup Française, qui n'ont donc de Français que le numéro au RCS...
    Ça me rappelle que je me demande au sujet de l'Équipe de France (de foot) ... Est-ce qu'ils ont au moins ça, de Français ?

  2. #722
    Chroniqueur Actualités
    Avatar de Bruno
    Homme Profil pro
    Rédacteur technique
    Inscrit en
    Mai 2019
    Messages
    1 921
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : Cameroun

    Informations professionnelles :
    Activité : Rédacteur technique
    Secteur : High Tech - Produits et services télécom et Internet

    Informations forums :
    Inscription : Mai 2019
    Messages : 1 921
    Points : 37 409
    Points
    37 409
    Par défaut Les travailleurs africains à l'origine de la révolution de l'IA : une réalité de conditions éprouvantes
    Les travailleurs africains à l'origine de la révolution de l'IA : une réalité de conditions éprouvantes et de salaires médiocres,
    pour environ un dollar de l'heure

    Les travailleurs africains, comme Mercy à Nairobi et Anita en Ouganda, sont essentiels à la révolution de l'IA, mais endurent des conditions éprouvantes pour environ un dollar de l'heure. Mercy, modératrice de contenu pour Meta, visionne des vidéos traumatisantes, dont l'accident mortel de son grand-père, et traite un "ticket" toutes les 55 secondes sous une surveillance étroite pour étiqueter les contenus violents. Anita, annotatrice de données, travaille sur des projets technologiques sous une pression intense, avec des salaires bien inférieurs aux normes internationales et peu de soutien émotionnel ou de sécurité d'emploi.

    Les employés de ces centres de modération sont continuellement exposés à des images et vidéos explicites sans avoir le temps de réfléchir à ce qu'ils voient. Ils doivent traiter entre 500 et 1 000 tickets par jour, ce qui laisse une marque indélébile sur leur vie. Les conséquences psychologiques sont dévastatrices, allant jusqu'à des tentatives de suicide et des ruptures familiales. Un modérateur licencié a déclaré que les politiques de l'entreprise étaient encore plus pénibles que le travail lui-même. Dans un centre de modération, les travailleurs ont pleuré et tremblé après avoir visionné des vidéos de décapitation, mais leur accès à un conseiller en bien-être, un collègue sans formation de psychologue, était limité à une pause de 30 minutes par semaine. Les employés qui quittaient leur poste en raison de ce qu'ils avaient vu étaient pénalisés pour ne pas avoir correctement indiqué leur absence dans le système de l'entreprise.

    Nom : Africa.jpg
Affichages : 7298
Taille : 73,1 Ko

    Ces récits mettent en lumière la réalité des travailleurs de l'industrie mondiale de l'IA, où des entreprises comme OpenAI externalisent des tâches critiques à des travailleurs dans des pays en développement pour des rémunérations minimes. Ces travailleurs, essentiels pour rendre les technologies plus sûres et efficaces, sont souvent exposés à des conditions précaires et à un stress psychologique considérable, soulevant des questions sur l'équité et la responsabilité sociale dans l'innovation technologique. OpenAI, par exemple, a fait appel à des travailleurs kenyans rémunérés moins de 2 dollars de l'heure pour améliorer la sécurité de ChatGPT en étiquetant des textes potentiellement toxiques. Bien que leur rôle soit crucial, ces travailleurs opèrent dans des conditions précaires et souvent traumatisantes, avec des salaires bien en deçà des normes internationales du travail.

    Quand l'innovation technologique écrase les droits des travailleurs en afrique

    Les pratiques de gestion et de soutien des travailleurs par des entreprises comme Sama sont souvent critiquées comme insuffisantes face à la nature éprouvante du travail. Twitter a licencié presque tout le personnel de son seul bureau en Afrique dans le cadre des efforts de réorganisation du nouveau propriétaire Elon Musk pour l'application de médias sociaux qu'il a récemment achetée, selon un nouveau rapport. Les licenciements collectifs sont intervenus sans aucune mention d'indemnité de départ quelques jours seulement après l'ouverture du bureau physique au Ghana après la venue du travail à distance qui aura duré environ un an. Les licenciements pourraient également être illégaux.

    Cette situation met en lumière un défi majeur pour l'industrie de l'IA : équilibrer l'innovation technologique avec des normes de travail équitables et respectueuses des droits humains, particulièrement dans des régions économiquement vulnérables comme l'Afrique subsaharienne. Sama, qui collabore avec des géants comme Google, Microsoft et Walmart, emploie des modérateurs de contenu à Nairobi pour filtrer les contenus illégaux pour Facebook. Ces employés sont confrontés à des salaires médiocres, des conditions de travail difficiles et un traumatisme mental, tout en étant souvent réprimés lorsqu'ils tentent d'améliorer leurs conditions de travail. Les pratiques de Sama et les exigences de Facebook soulèvent des questions sur les conditions de travail. Les modérateurs de contenu de Facebook au Kenya vont jusqu'à qualifier leur travail de torture.

    Au bord des larmes, Nathan Nkunzimana se souvient d'avoir regardé une vidéo montrant un enfant agressé et une autre montrant une femme tuée. Huit heures par jour, son travail de modérateur de contenu pour un sous-traitant de Facebook l'obligeait à regarder des horreurs pour que le monde n'ait pas à le faire. Certains collègues accablés criaient ou pleuraient, dit-il.
    Aujourd'hui, Nkunzimana fait partie des quelque 200 anciens employés kenyans qui poursuivent Facebook et l'entreprise locale Sama en raison de conditions de travail qui pourraient avoir des répercussions sur les modérateurs de médias sociaux dans le monde entier. Il s'agit de la première action en justice connue en dehors des États-Unis, où Facebook a conclu un accord avec les modérateurs en 2020.

    Le groupe était employé au centre de modération de contenu externalisé du géant des médias sociaux à Nairobi, la capitale du Kenya, où les travailleurs filtrent les messages, les vidéos, les messages et d'autres contenus provenant d'utilisateurs de toute l'Afrique, en supprimant tout matériel illégal ou nuisible qui enfreint les normes de la communauté et les conditions d'utilisation. Les révélations sur ces conditions de travail mettent en lumière la tension entre les gains de productivité technologique et les coûts humains cachés, soulignant la nécessité d'une réflexion critique sur les pratiques de travail et la responsabilité sociale des entreprises technologiques.

    La plupart des gens ne connaîtront jamais les conditions de travail inhumaines endurées par Mercy et ses collègues. Cependant, des millions de travailleurs à travers le monde effectuent ce type de travail dans des circonstances et des lieux variés. Dans ce centre particulier, certaines conditions de travail ont changé après la publication de nos recherches. Toutefois, des grandes entreprises comme Meta ont tendance à utiliser plusieurs fournisseurs de services de modération externalisés qui se font concurrence pour obtenir les contrats les plus lucratifs.

    Ce travail sur les données est crucial pour le fonctionnement des produits et services que nous utilisons quotidiennement - des applications de médias sociaux aux chatbots et aux nouvelles technologies automatisées. C'est une condition essentielle à leur existence même - sans les modérateurs de contenu qui analysent constamment les messages en arrière-plan, les réseaux sociaux seraient rapidement envahis de contenus violents et explicites. Sans les annotateurs de données qui créent des ensembles de données pour enseigner à l'IA à distinguer un feu de circulation d'un panneau de signalisation, les véhicules autonomes ne seraient pas autorisés à circuler sur nos routes. Et sans les travailleurs qui forment les algorithmes d'apprentissage automatique, nous n'aurions pas d'outils d'IA tels que ChatGPT.

    Facebook et Sama ont défendu leurs pratiques en matière d'emploi

    Sans certitude quant à la durée de l'affaire, les modérateurs ont exprimé leur désespoir alors que l'argent et les permis de travail viennent à manquer et qu'ils se débattent avec les images traumatisantes qui les hantent. « Si vous vous sentez à l'aise en naviguant et en parcourant la page Facebook, c'est parce qu'il y a quelqu'un comme moi qui a été là, sur cet écran, à se demander si c'est normal d'être ici », a déclaré Nkunzimana, père de trois enfants originaire du Burundi, à l'Associated Press à Nairobi.

    Selon ce jeune homme de 33 ans, la modération des contenus est comparable à des "soldats" qui prennent une balle pour les utilisateurs de Facebook. Les employés surveillent des contenus nuisibles montrant des meurtres, des suicides et des agressions sexuelles, et veillent à ce qu'ils soient supprimés. Pour Nkunzimana et d'autres, le travail a commencé par un sentiment de fierté, avec l'impression d'être des « héros pour la communauté ».

    Mais lorsque l'exposition à des contenus alarmants a ravivé les traumatismes passés de certains qui, comme lui, avaient fui la violence politique ou ethnique dans leur pays, les modérateurs ont trouvé peu de soutien et une culture du secret. On leur a demandé de signer des accords de non-divulgation. Les objets personnels, comme les téléphones, n'étaient pas autorisés sur le lieu de travail.

    Après son service, Nkunzimana rentrait chez lui épuisé et s'enfermait souvent dans sa chambre pour tenter d'oublier ce qu'il avait vu. Même sa femme n'avait aucune idée de ce qu'était son travail. Ces jours-ci, il s'enferme dans sa chambre pour éviter que ses fils ne lui demandent pourquoi il ne travaille plus et pourquoi ils ne peuvent probablement plus payer les frais de scolarité. Le salaire des modérateurs de contenu était de 429 dollars par mois, les non-Kényans recevant en plus une petite indemnité d'expatriation.

    Le sous-traitant de Facebook, la société américaine Sama, n'a pas fait grand-chose pour s'assurer que des conseils professionnels post-traumatiques étaient proposés aux modérateurs dans son bureau de Nairobi, a déclaré Nkunzimana. Il a ajouté que les conseillers n'étaient pas suffisamment formés pour faire face à ce que ses collègues vivaient. Aujourd'hui, en l'absence de soins de santé mentale, il se plonge dans l'église.


    Meta, la société mère de Facebook, a déclaré que ses sous-traitants étaient contractuellement tenus de rémunérer leurs employés à un niveau supérieur à la norme du secteur sur les marchés où ils opèrent et de leur fournir un soutien sur place par des praticiens formés.

    Dans un courriel adressé à l'AP, Sama a déclaré que les salaires offerts au Kenya étaient quatre fois supérieurs au salaire minimum local et que "plus de 60 % des employés masculins et plus de 70 % des employées féminines vivaient en dessous du seuil international de pauvreté (moins de 1,90 dollar par jour)" avant d'être embauchés.

    Sama a déclaré que tous les employés avaient un accès illimité à des conseils individuels « sans crainte de répercussions ». L'entrepreneur a également qualifié de « déroutante » une récente décision de justice visant à prolonger les contrats des modérateurs et a affirmé qu'une décision ultérieure suspendant cette décision signifiait qu'elle n'était pas entrée en vigueur.

    Source : The Guardian

    Et vous ?

    Quel est votre avis sur le sujet ?

    Quelles sont les solutions potentielles pour garantir que l'innovation technologique ne se fasse pas au détriment des droits et du bien-être des travailleurs en Afrique ?

    Quelle est l'ampleur réelle du problème de sous-traitance des tâches de modération de contenu à des prestataires externes, et quelles mesures pourraient être prises pour améliorer la transparence et les conditions de travail ?

    Voir aussi :

    Les modérateurs de contenu de Facebook au Kenya qualifient leur travail de torture, leur action en justice pourrait avoir des répercussions dans le monde entier

    Le Twitter d'Elon Musk licencie « presque tous » ses employés en Afrique sans offrir d'indemnités de départ et sans mentionner les noms des collaborateurs remerciés dans les avis de licenciement

    OpenAI a fait appel à des travailleurs kényans payés moins de 2 dollars par heure pour rendre ChatGPT moins toxique, les experts jugent ce tarif faible en raison des "tâches ingrates" des employés
    Contribuez au club : corrections, suggestions, critiques, ... Contactez le service news et Rédigez des actualités

  3. #723
    Membre expert
    Homme Profil pro
    ingénieur qualité
    Inscrit en
    Mars 2015
    Messages
    1 276
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : Belgique

    Informations professionnelles :
    Activité : ingénieur qualité
    Secteur : Aéronautique - Marine - Espace - Armement

    Informations forums :
    Inscription : Mars 2015
    Messages : 1 276
    Points : 3 859
    Points
    3 859
    Par défaut
    Les travailleurs africains à l'origine de la révolution de l'IA : une réalité de conditions éprouvantes et [...] pour environ un dollar de l'heure
    Pendant que les société d'IA lèvent des millions de dollar d'investissement.

  4. #724
    Membre émérite
    Profil pro
    Développeur Web
    Inscrit en
    Février 2008
    Messages
    2 353
    Détails du profil
    Informations personnelles :
    Localisation : France

    Informations professionnelles :
    Activité : Développeur Web

    Informations forums :
    Inscription : Février 2008
    Messages : 2 353
    Points : 2 645
    Points
    2 645
    Par défaut
    Citation Envoyé par totozor Voir le message
    Les travailleurs africains à l'origine de la révolution de l'IA : une réalité de conditions éprouvantes et [...] pour environ un dollar de l'heure
    Pendant que les société d'IA lèvent des millions de dollar d'investissement.
    Si je lis bien, l'émergence de l'IA est basée sur l'esclavage.

  5. #725
    Membre émérite
    Profil pro
    Inscrit en
    Juin 2009
    Messages
    951
    Détails du profil
    Informations personnelles :
    Localisation : France

    Informations forums :
    Inscription : Juin 2009
    Messages : 951
    Points : 2 907
    Points
    2 907
    Par défaut
    A titre de comparaison : https://www.combien-coute.net/cout-de-la-vie/kenya/

    En moyenne, le coût de la vie au Kenya en 2024 est 43% moins important qu'en France.

    Le salaire mensuel moyen est de : 362€
    1L d'essence coûte : 1.5€
    Un déjeuner au restaurant : 3.6€
    Le prix d'une place de cinéma est 5.8€
    La location d'un appartement dans le centre-ville coûte 850€/mois
    En moyenne, le prix pour se loger à l'hôtel au Kenya est 54% moins cher par rapport à la France
    Le coût de la vie pour habiter (logement, abonnements...) au Kenya est en moyenne 51% moins cher par rapport à la France
    Je me suis dit que le niveau de vie était pas forcément le même et j'ai, vite fait, vérifié à quel point, c'est sur que c'est pas pareil qu'en France, en revanche quand on compare le salaire moyen avec le cout de la vie, ça a bien l'air misérable de vivre au Kenya.

  6. #726
    Expert éminent Avatar de kain_tn
    Homme Profil pro
    Inscrit en
    Mars 2005
    Messages
    1 642
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : Suisse

    Informations forums :
    Inscription : Mars 2005
    Messages : 1 642
    Points : 7 650
    Points
    7 650
    Par défaut
    Citation Envoyé par Gluups Voir le message
    Si je lis bien, l'émergence de l'IA est basée sur l'esclavage.
    Oui. Et pas uniquement en Afrique: le passage sur la classification des données pour l'IA est dans la dernière partie.
    Copier c'est copier; voler c'est vendre un CD une vingtaine d'euros!


    Code C : Sélectionner tout - Visualiser dans une fenêtre à part
    1
    2
    3
    4
    5
    6
    7
    #include <stdio.h>
     
    int main(int argc, char **argv) {
     
        printf("So long, and thanks for the fish, Dennis...\n");
        return 0;
    }

  7. #727
    Membre émérite
    Profil pro
    Développeur Web
    Inscrit en
    Février 2008
    Messages
    2 353
    Détails du profil
    Informations personnelles :
    Localisation : France

    Informations professionnelles :
    Activité : Développeur Web

    Informations forums :
    Inscription : Février 2008
    Messages : 2 353
    Points : 2 645
    Points
    2 645
    Par défaut
    Dès le début de la vidéo, j'ai l'impression que pour un peu, il y aurait matière à ce que la "Gauche" trouve autre chose à glander que s'écharper en interne à longueur de journée parlementaire.
    Il est vrai que si on est trop occupé à pourchasser les députés ou futurs députés qui ont le sens du pays, il reste moins de temps.

  8. #728
    Candidat au Club
    Femme Profil pro
    Chargé d'affaire
    Inscrit en
    Juillet 2024
    Messages
    3
    Détails du profil
    Informations personnelles :
    Sexe : Femme
    Localisation : France, Paris (Île de France)

    Informations professionnelles :
    Activité : Chargé d'affaire

    Informations forums :
    Inscription : Juillet 2024
    Messages : 3
    Points : 4
    Points
    4
    Par défaut Salaire
    Cet article poignant met en lumière les conditions difficiles des travailleurs africains comme Mercy et Anita, qui jouent un rôle crucial dans la révolution de l'IA. Il est choquant de voir qu'ils sont rémunérés à peine un dollar de l'heure pour un travail aussi éprouvant et essentiel. Ces travailleurs méritent des salaires justes, un soutien émotionnel et une sécurité d'emploi adéquate. Il est impératif que les grandes entreprises technologiques reconnaissent leur contribution et améliorent leurs conditions de travail.

  9. #729
    Membre expert
    Homme Profil pro
    ingénieur qualité
    Inscrit en
    Mars 2015
    Messages
    1 276
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : Belgique

    Informations professionnelles :
    Activité : ingénieur qualité
    Secteur : Aéronautique - Marine - Espace - Armement

    Informations forums :
    Inscription : Mars 2015
    Messages : 1 276
    Points : 3 859
    Points
    3 859
    Par défaut
    Citation Envoyé par walfrat Voir le message
    A titre de comparaison : https://www.combien-coute.net/cout-de-la-vie/kenya/
    Je me suis dit que le niveau de vie était pas forcément le même et j'ai, vite fait, vérifié à quel point, c'est sur que c'est pas pareil qu'en France, en revanche quand on compare le salaire moyen avec le cout de la vie, ça a bien l'air misérable de vivre au Kenya.
    Le taux horaire net du smic est de 9,23 € ce qui donnerait un équivalent à 3.97€ si on prend en compte les 43%.
    Ce qui est toujours 4 fois au dessus du salaire desdites personnes.
    Et n'est il pas aussi - un peu - la responsabilité des grands de ce monde de tirer le monde vers le haut plutôt que d'entretenir la main d'œuvre gratuite (à ce niveau là on peut parler de ça) dans sa misère.

    Mais je suis probablement un idéaliste qui rêve de vivre chez les bisounours.

  10. #730
    Chroniqueur Actualités

    Homme Profil pro
    Administrateur de base de données
    Inscrit en
    Mars 2013
    Messages
    8 797
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : Canada

    Informations professionnelles :
    Activité : Administrateur de base de données

    Informations forums :
    Inscription : Mars 2013
    Messages : 8 797
    Points : 204 344
    Points
    204 344
    Par défaut OpenAI pourrait perdre 5 milliards de dollars cette année et se retrouver à court de liquidités dans 12 mois
    OpenAI pourrait perdre 5 milliards de dollars cette année et se retrouver à court de liquidités dans 12 mois, selon un rapport
    qui évoque ses dépenses colossales en formation des modèles d'IA et en rémunération du personnel

    L’intelligence artificielle (IA) est un domaine en pleine expansion, mais il n’est pas sans risques financiers. OpenAI, le créateur de ChatGPT, pourrait bien en faire l’amère expérience. Selon une analyse de The Information, l’entreprise pourrait perdre jusqu’à 5 milliards de dollars en 2024, mettant ainsi en péril sa trésorerie dans les 12 prochains mois.

    OpenAI a lancé ChatGPT en novembre 2022. L'assistant d'IA a rapidement gagné en popularité, dépassant les 100 millions d'utilisateurs hebdomadaires. L'entreprise d'intelligence artificielle, basée aux États-Unis, a annoncé le 18 juillet le lancement d'un nouveau modèle d'IA générative, baptisé « GPT-4o Mini ». L'entreprise serait également en train de construire un modèle d'IA capable d'un raisonnement avancé, surpassant les capacités de l'actuel modèle phare GPT-4o. Le nouveau modèle, appelé « Strawberry », aurait également des réactions plus proches de celles des humains.

    Toutefois, OpenAI gère une entreprise coûteuse qui pourrait perdre jusqu'à 5 milliards de dollars en 2024, ce qui mettrait le fabricant de ChatGPT à court de liquidités dans les 12 mois à venir, selon une analyse de The Information.

    Des dépenses colossales

    Selon le rapport, qui cite des données financières précédemment non divulguées et des personnes familières avec l'entreprise, OpenAI est sur la bonne voie pour dépenser quelque 7 milliards de dollars uniquement pour la formation de ses modèles d'intelligence artificielle, et 1,5 milliard de dollars supplémentaires pour la dotation en personnel. Ces dépenses dépassent de loin celles de ses rivaux, comme Anthropic, soutenu par Amazon, qui prévoit un taux d'absorption de 2,7 milliards de dollars en 2024.

    Les dépenses élevées d'OpenAI pourraient obliger l'entreprise à conclure un nouveau cycle de financement dans les 12 mois pour renforcer son bilan, selon le rapport. OpenAI a déjà réalisé sept tours de financement, levant plus de 11 milliards de dollars, selon les données de Tracxn - le plus récent étant un tour privé avec ARK Investment Management en avril pour une somme non divulguée.

    Nom : financement.png
Affichages : 5271
Taille : 33,9 Ko

    Les défis réglementaires et de transparence

    Outre les défis financiers, OpenAI doit également faire face à des questions réglementaires. En effet, la Securities and Exchange Commission (SEC), gendarme américain des marchés financiers, enquête sur des allégations de non-respect des accords de confidentialité. De plus, des législateurs américains ont exprimé leurs préoccupations concernant les normes de sécurité et les pratiques d’emploi d’OpenAI. Dans une lettre adressée au PDG d'OpenAI, Sam Altman ils ont demandé si l’entreprise s’engagerait à rendre son prochain modèle de base disponible aux agences gouvernementales américaines pour des tests, des examens et des évaluations préalables au déploiement.

    Les motifs ? Ils l'expliquent avant de lister leurs exigences :

    « Une IA sûre et sécurisée est largement considérée comme vitale pour la compétitivité économique et la position géopolitique de la nation au XXIe siècle. En outre, OpenAI travaille actuellement en partenariat avec le gouvernement américain et les agences de sécurité et de défense nationales pour développer des outils de cybersécurité destinés à protéger les infrastructures critiques de notre pays. La sécurité nationale et économique fait partie des responsabilités les plus importantes du gouvernement des États-Unis, et les systèmes d'IA non sécurisés ou autrement vulnérables ne sont pas acceptables.

    « Compte tenu de la position d'OpenAI en tant qu'entreprise leader dans le domaine de l'IA, il est important que le public puisse avoir confiance dans la sûreté et la sécurité de ses systèmes. Cela inclut l'intégrité de la structure de gouvernance de l'entreprise et des tests de sécurité, ses pratiques d'emploi, sa fidélité à ses promesses publiques et à sa mission, ainsi que ses politiques de cybersécurité. Les engagements volontaires que vous et d'autres grandes entreprises d'IA avez pris avec la Maison Blanche l'année dernière ont constitué une étape importante dans l'instauration de cette confiance ».

    Pour Mark Zuckerberg, l'avenir est dans l'IA open source

    Dans une lettre récente, Mark Zuckerberg, fondateur et PDG de Meta, a souligné le rôle essentiel de l'IA open source et les avantages qu'elle confère pour les développeurs, pour Meta et pour le monde entier. Faisant le parallèle avec le succès de l'open source Linux, Zuckerberg a souligné les avancées des modèles Llama de Meta, en particulier le nouveau Llama 3.1 405B de niveau frontière. Il a détaillé la collaboration de Meta avec de grandes entreprises technologiques afin de favoriser un écosystème d'IA étendu, plaidant pour que l'open source soit l'avenir de l'innovation en matière d'IA et la norme de l'industrie :

    « Dans les premiers temps de l'informatique de haute performance, les principales entreprises technologiques de l'époque ont toutes investi massivement dans le développement de leurs propres versions d'Unix à code source fermé. À l'époque, il était difficile d'imaginer qu'une autre approche puisse permettre de développer des logiciels aussi avancés. Cependant, Linux a fini par gagner en popularité, d'abord parce qu'il permettait aux développeurs de modifier son code à leur guise et qu'il était plus abordable, puis parce qu'il est devenu plus avancé, plus sûr et qu'il disposait d'un écosystème plus large prenant en charge davantage de fonctionnalités que n'importe quel Unix fermé. Aujourd'hui, Linux est la base standard de l'industrie pour le cloud computing et les systèmes d'exploitation qui font fonctionner la plupart des appareils mobiles - et nous bénéficions tous de produits de qualité supérieure grâce à lui.

    « Je pense que l'IA se développera de la même manière. Aujourd'hui, plusieurs entreprises technologiques développent des modèles fermés de pointe. Mais l'open source comble rapidement le fossé. L'année dernière, Llama 2 n'était comparable qu'à une ancienne génération de modèles derrière la frontière. Cette année, Llama 3 est compétitif avec les modèles les plus avancés et en avance dans certains domaines. À partir de l'année prochaine, nous prévoyons que les futurs modèles Llama deviendront les plus avancés de l'industrie. Mais même avant cela, Llama est déjà en tête pour ce qui est de l'ouverture, de la modifiabilité et de la rentabilité ».

    L'évolution chez la concurrence

    Llama 3.1

    Meta affirme que Llama 3.1 405B est le premier modèle disponible en libre accès qui rivalise avec les meilleurs modèles d’IA en termes de capacités de pointe dans les domaines de la connaissance générale, de l’orientation, des mathématiques, de l’utilisation d’outils et de la traduction multilingue. Avec la sortie du modèle 405B, Meta indique être prêt à stimuler l’innovation, avec des possibilités de croissance et d’exploration sans précédent. La société pense que la dernière génération de Llama va donner naissance à de nouvelles applications et à de nouveaux paradigmes de modélisation, y compris la génération de données synthétiques pour permettre l’amélioration et l’entraînement de modèles plus petits, ainsi que la distillation de modèles – une capacité qui n’a jamais été atteinte à cette échelle dans le domaine de l’open-source.

    Dans le cadre de cette dernière version, Meta présente des versions améliorées des modèles 8B et 70B. Ceux-ci sont multilingues et disposent d’une longueur de contexte nettement plus importante (128 Ko), d’une utilisation d’outils de pointe et de capacités de raisonnement globalement plus solides. Cela permet aux derniers modèles de Meta de prendre en charge des cas d’utilisation avancés, tels que le résumé de textes longs, les agents conversationnels multilingues et les assistants de codage. Meta a également modifié sa licence, ce qui permet aux développeurs d’utiliser les résultats des modèles Llama, y compris le 405B, pour améliorer d’autres modèles. Fidèles à son engagement en faveur de l’open-source, Meta a mis dès aujourd’hui ces modèles à la disposition de la communauté pour le téléchargement sur llama.meta.com et Hugging Face, ainsi que pour le développement immédiat sur son vaste écosystème de plateformes partenaires.


    Large 2 de Mistral AI

    La startup française Mistral AI vient d'annoncer la sortie de Large 2, son nouveau modèle phare dont les capacités de génération de code, de mathématiques et de raisonnement sont considérablement accrues. Mistral AI a également ajouté un support multilingue amélioré et des capacités d'appel de fonctions avancées avec Large 2.

    Le modèle Mistral Large 2 compte 123 milliards de paramètres, ce qui lui permet de fonctionner sur un seul nœud H100 à haut débit. Il prend en charge les langues française, allemande, espagnole, italienne, portugaise, arabe, hindi, russe, chinoise, japonaise et coréenne. En termes de codage, il prend en charge plus de 80 langages de codage, dont Python, Java, C, C++, JavaScript et Bash.

    Pour les développeurs, Mistral Large 2 est désormais doté de compétences améliorées en matière d'appel et de récupération de fonctions. Il peut désormais exécuter des appels de fonctions parallèles et séquentielles, ce qui permet aux développeurs de créer des applications d'IA commerciales complexes.

    Les performances de Mistral Large 2 (123B) sont comparables à celles de GPT-4o d'OpenAI, du Claude Opus 3 et du Meta's Llama 3.1 405B récemment sorti sur les benchmarks de codage. Sur les benchs Wild Bench, Arena Hard et MT Bench, Large 2 surpasse Llama 3.1 405B et Claude 3 Opus. Sur le populaire benchmark MMLU, ce nouveau modèle surpasse Llama 3.1 70B et est comparable à Llama 3.1 405B.

    Mistral Large 2 est maintenant disponible avec des poids ouverts, mais il n'est disponible gratuitement que pour la recherche et l'utilisation non-commerciale. Pour une utilisation commerciale, une licence de modèle est nécessaire. Avec sa sortie, Mistral consolide son portefeuille de modèles. Il y aura deux modèles polyvalents, Mistral Nemo et Mistral Large, et deux modèles spécialisés, Codestral et Embed.


    Conclusion

    Alors qu'OpenAI est considéré par beaucoup comme le leader en matière d'IA, l'écart avec la concurrence ne cesse de se réduire. Pourtant, ses besoins en matière de financement sont loin de diminuer, les entrées ne couvrant vraisemblablement pas tous ses besoins. Aussi, Gary Marcus, le fondateur et directeur général de Geometric Intelligence (racheté par Uber), estime que, vu le contexte, les investisseurs devraient se poser les questions suivantes :

    Quel est leur plus-value ? Une technologie unique ? Quel est leur chemin vers la rentabilité alors que Meta offre gratuitement des technologies similaires ? Ont-ils une « killer app » ? La technologie sera-t-elle un jour fiable ? Qu'est-ce qui est réel et qu'est-ce qui n'est qu'une démo ?

    Sources : The Information, Tracxn, lettre des législateurs

    Et vous ?

    L’IA devrait-elle être réglementée de manière plus stricte pour éviter les risques financiers des entreprises comme OpenAI ? Les dépenses massives d’OpenAI soulèvent des inquiétudes quant à la viabilité financière. Devrions-nous imposer des limites ou des contrôles plus stricts sur les investissements dans l’IA ?
    Quelles sont les implications de la perte potentielle de 5 milliards de dollars pour OpenAI et l’industrie de l’IA en général ? Comment cela pourrait-il affecter la recherche, le développement et l’innovation dans le domaine de l’IA ?
    La transparence d’OpenAI est-elle suffisante ? Les législateurs et les utilisateurs se préoccupent de la manière dont OpenAI gère la sécurité, la confidentialité et la divulgation de ses modèles. Quelles mesures supplémentaires devraient être prises ?
    Partagez-vous le point de vue de Gary Marcus qui pense que les investisseurs devraient se poser les questions suivantes au sujet d'OpenAI : « Quel est leur plus-value ? Une technologie unique ? Quel est leur chemin vers la rentabilité alors que Meta offre gratuitement des technologies similaires ? Ont-ils une "killer app" ? La technologie sera-t-elle un jour fiable ? Qu'est-ce qui est réel et qu'est-ce qui n'est qu'une démo ? » ? Dans quelle mesure ?
    Si Llama ou une autre IA venait à dépasser les performances proposées par les IA d'OpenAI, quelles pourraient en être les conséquences ?
    Des IA susceptibles selon vous de réaliser cette prouesse ? Lesquelles ?
    Contribuez au club : Corrections, suggestions, critiques, ... : Contactez le service news et Rédigez des actualités

  11. #731
    Chroniqueur Actualités

    Homme Profil pro
    Administrateur de base de données
    Inscrit en
    Mars 2013
    Messages
    8 797
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : Canada

    Informations professionnelles :
    Activité : Administrateur de base de données

    Informations forums :
    Inscription : Mars 2013
    Messages : 8 797
    Points : 204 344
    Points
    204 344
    Par défaut OpenAI a mis au point un système capable d'identifier du texte rédigé par ChatGPT mais craint de le déployer
    OpenAI a mis au point un système capable d'identifier les textes rédigés par ChatGPT mais hésite à le déployer
    car il pourrait stigmatiser l’utilisation de ChatGPT et réduire sa popularité

    Depuis sa sortie à la fin de 2022, ChatGPT est devenu l’un des sites web les plus populaires au monde. Cependant, OpenAI a récemment développé un système capable de détecter le texte généré par ChatGPT. Ce système laisse une sorte de filigrane dans les mots générés, invisible pour les humains mais repérable par un autre système d’intelligence artificielle. Par exemple, les enseignants pourraient l’utiliser pour vérifier si leurs élèves trichent en utilisant ChatGPT pour leurs devoirs. Cependant, OpenAI hésite à mettre en place ce système, car il pourrait stigmatiser l’utilisation de ChatGPT et réduire sa popularité.

    OpenAI dispose d'une méthode permettant de détecter de manière fiable si quelqu'un utilise ChatGPT pour rédiger une dissertation ou un travail de recherche. C'est en tout cas ce qu'a rapporté le Wall Street Journal qui a précisé que l'entreprise ne l'a pas rendue publique malgré les inquiétudes généralisées concernant l'utilisation de l'intelligence artificielle par les étudiants pour tricher.

    Le projet est embourbé dans un débat interne à OpenAI depuis environ deux ans et est prêt à être publié depuis environ un an, selon des personnes familières avec le sujet et des documents internes consultés par le quotidien. « Il suffit d'appuyer sur un bouton », a déclaré l'une de ces personnes.

    En essayant de décider quoi faire, les employés d'OpenAI ont hésité entre l'engagement déclaré de la startup à la transparence et leur désir d'attirer et de retenir les utilisateurs. Une enquête menée par l'entreprise auprès des utilisateurs fidèles de ChatGPT a révélé que près d'un tiers d'entre eux seraient rebutés par la technologie anti-tricherie.

    Une porte-parole d'OpenAI a déclaré que l'entreprise craignait que l'outil n'affecte de manière disproportionnée des groupes tels que les personnes dont l'anglais n'est pas la langue maternelle. « La méthode de filigrane que nous développons est techniquement prometteuse, mais elle comporte des risques importants que nous évaluons tout en recherchant d'autres solutions », a-t-elle déclaré. « Nous pensons que l'approche délibérée que nous avons adoptée est nécessaire compte tenu des complexités en jeu et de son impact probable sur l'écosystème élargi au-delà de l'OpenAI ».

    Les employés qui soutiennent la diffusion de l'outil, y compris ceux qui ont contribué à son développement, ont déclaré en interne que ces arguments étaient bien faibles par rapport à l'utilité de cette technologie.

    L’outil d’intelligence artificielle (IA) générative ChatGPT, sorti en novembre 2022 et accessible gratuitement au grand public, est capable de créer des textes sur demande, qu’il s’agisse de rédiger des e-mails, des messages sur les réseaux sociaux ou des dissertations – au grand désarroi de certains enseignants. « C'est un problème énorme », a déclaré Alexa Gutterman, professeur d'anglais et de journalisme dans un lycée de New York. « Tous les enseignants avec lesquels je travaille en ont parlé ».

    Une enquête récente du Center for Democracy & Technology, une organisation à but non lucratif spécialisée dans la politique technologique, a révélé que 59 % des enseignants de collège et de lycée étaient certains que certains élèves avaient utilisé l'IA pour les aider dans leurs travaux scolaires, soit une augmentation de 17 points par rapport à l'année scolaire précédente.

    Sam Altman, directeur général d'OpenAI, et Mira Murati, directrice de la technologie, ont participé aux discussions sur l'outil anti-tricherie. Altman a encouragé le projet, mais n'a pas insisté pour qu'il soit lancé, ont déclaré certaines personnes au fait du dossier.

    Nom : credit.png
Affichages : 4272
Taille : 14,3 Ko

    Un outil qui serait efficace à 99,9 % sur ChatGPT

    ChatGPT est alimenté par un système d'intelligence artificielle qui prédit quel mot ou fragment de mot, appelé "token", doit suivre dans une phrase. L'outil anti-tricherie en cours de discussion à l'OpenAI modifierait légèrement la manière dont les jetons sont sélectionnés. Ces modifications laisseraient un motif appelé « filigrane ». Ces filigranes seraient imperceptibles à l'œil nu, mais pourraient être détectés grâce à la technologie de détection de l'OpenAI. Le détecteur fournit un score indiquant la probabilité que le document entier ou une partie de celui-ci ait été écrit par ChatGPT.

    Les filigranes sont efficaces à 99,9 % lorsque ChatGPT crée suffisamment de nouveau texte, selon les documents internes. Néanmoins, des employés ont exprimé leur inquiétude quant à la possibilité d'effacer les filigranes au moyen de techniques simples, par exemple en demandant à Google de traduire le texte dans une autre langue, puis de revenir en arrière, ou en demandant à ChatGPT d'ajouter des emojis au texte, puis de les effacer manuellement, a déclaré un employé d'OpenAI au courant de l'affaire.

    L'entreprise est largement d'accord sur le fait qu'il serait difficile de déterminer qui peut utiliser ce détecteur. Si trop peu de personnes y ont accès, l'outil ne sera pas utile. Si trop de personnes y ont accès, de mauvais acteurs pourraient déchiffrer la technique de filigrane de l'entreprise.

    Les employés d'OpenAI ont envisagé de fournir le détecteur directement aux éducateurs ou à des entreprises extérieures qui aident les écoles à identifier les travaux rédigés par l'IA et les travaux plagiés.

    Une portée limitée

    Dans une déclaration, un porte-parole d'OpenAI a confirmé que l'entreprise étudie la méthode de filigrane décrite dans l'article du Journal, mais a déclaré qu'elle adopte une « approche délibérée » en raison des « complexités impliquées et de son impact probable sur l'écosystème plus large au-delà d'OpenAI ».

    « La méthode de filigrane que nous développons est techniquement prometteuse, mais elle comporte des risques importants que nous évaluons pendant que nous recherchons des alternatives, notamment la possibilité d'être contournée par de mauvais acteurs et la possibilité d'avoir un impact disproportionné sur des groupes tels que les non-anglophones », a déclaré le porte-parole.

    Il s'agirait d'une approche différente de la plupart des efforts précédents visant à détecter les textes générés par l'IA, qui se sont avérés largement inefficaces. OpenAI elle-même a fermé l'an dernier son précédent détecteur de texte généré par l'IA en raison de son « faible taux de précision ».

    Avec le filigrane de texte, OpenAI se concentrerait uniquement sur la détection de l'écriture de ChatGPT, et non sur les modèles d'autres entreprises. Pour ce faire, elle apporterait de petites modifications à la manière dont ChatGPT sélectionne les mots, créant ainsi un filigrane invisible dans l'écriture qui pourrait être détecté ultérieurement par un outil distinct.

    À la suite de la publication de l'article du Journal, l'OpenAI a également mis à jour un billet de blog datant du mois de mai et portant sur ses recherches en matière de détection des contenus générés par l'IA. La mise à jour indique que le filigrane de texte s'est avéré « très précis et même efficace contre les altérations localisées, telles que la paraphrase », mais qu'il s'est révélé « moins robuste contre les altérations globales, telles que l'utilisation de systèmes de traduction, la reformulation avec un autre modèle génératif, ou le fait de demander au modèle d'insérer un caractère spécial entre chaque mot, puis de supprimer ce caractère ».

    En conséquence, OpenAI écrit que cette méthode est « triviale pour être contournée par de mauvais acteurs ». La mise à jour d'OpenAI fait également écho à la remarque du porte-parole concernant les non-anglophones, en écrivant que le filigrane de texte pourrait "stigmatiser l'utilisation de l'IA en tant qu'outil d'écriture utile pour les personnes dont l'anglais n'est pas la langue maternelle ».

    Sources : Le Monde, OpenAI

    Et vous ?

    L’anonymat en ligne : Devrions-nous privilégier la confidentialité des utilisateurs de ChatGPT, même si cela peut entraîner des abus ? Comment pouvons-nous trouver un équilibre entre la protection de la vie privée et la prévention des comportements nuisibles ?
    Responsabilité des utilisateurs : Qui devrait être tenu responsable des actions basées sur le texte généré par ChatGPT ? L’utilisateur, OpenAI ou les deux ? Comment pouvons-nous encourager une utilisation responsable ?
    Transparence et confiance : Comment OpenAI peut-il renforcer la confiance des utilisateurs envers ChatGPT sans compromettre la confidentialité ? Quelles mesures de transparence devraient être mises en place ?
    Quelles sont les implications de l’utilisation de ChatGPT sans filigrane ? Comment pouvons-nous garantir que l’IA est utilisée de manière responsable ?
    Contribuez au club : Corrections, suggestions, critiques, ... : Contactez le service news et Rédigez des actualités

  12. #732
    Membre expert
    Homme Profil pro
    ingénieur qualité
    Inscrit en
    Mars 2015
    Messages
    1 276
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : Belgique

    Informations professionnelles :
    Activité : ingénieur qualité
    Secteur : Aéronautique - Marine - Espace - Armement

    Informations forums :
    Inscription : Mars 2015
    Messages : 1 276
    Points : 3 859
    Points
    3 859
    Par défaut
    Citation Envoyé par Stéphane le calme Voir le message
    [...]malgré les inquiétudes généralisées concernant l'utilisation de l'intelligence artificielle par les étudiants pour tricher.
    C'est vraiment pour ça que l'IA fait peur?
    Parce que les élèves trichent? Les élèves ont toujours triché et dans certains cas je considère même ça comme une preuve d'intelligence.
    J'ai hâte que cette fonctionnalité sorte pour constater à quel point certains de nos supérieurs (je vais même inclure les profs là dedans) réfléchissent à travers OpenAI. A quel point les PPT qu'on nous impose de lire n'ont pas été écrits par une personne.
    Mais le problème n'est pas que des documents inutiles ne soient pas écrit par des personnes mais :
    1. Qu'on nous impose de les écrire et de les lire
    2. Que ceux qui sont censé les avoir écrits n'assument pas d'avoir optimiser leur temps de travail.
    En essayant de décider quoi faire, les employés d'OpenAI ont hésité entre l'engagement déclaré de la startup à la transparence et leur désir d'attirer et de retenir les utilisateurs. Une enquête menée par l'entreprise auprès des utilisateurs fidèles de ChatGPT a révélé que près d'un tiers d'entre eux seraient rebutés par la technologie anti-tricherie.
    le problème ce n'est pas l'IA là dedans ce sont les illusions des profs sur ce que font les élèves.
    Et je vais être honnête, faire ses devoirs avec les parents/les amis/un autre prof/l'IA a souvent plus d'intérêt que de le faire seul, le partage permet la transmission, permet d'ouvrir les perspectives.
    Mais un bon nombre de profs semblent incapables de le comprendre.
    « La méthode de filigrane que nous développons est techniquement prometteuse, mais elle comporte des risques importants que nous évaluons tout en recherchant d'autres solutions »
    Quels risques?
    Des faux-positifs/négatifs?
    Parce que les autres risques me semblent intrinsèques à l'idée de détecteur d'IA.
    « C'est un problème énorme », a déclaré Alexa Gutterman, professeur d'anglais et de journalisme dans un lycée de New York. « Tous les enseignants avec lesquels je travaille en ont parlé ».
    Mais l'utilisent en cachette
    Une enquête récente du Center for Democracy & Technology, une organisation à but non lucratif spécialisée dans la politique technologique, a révélé que 59 % des enseignants de collège et de lycée étaient certains que certains élèves avaient utilisé l'IA pour les aider dans leurs travaux scolaires, soit une augmentation de 17 points par rapport à l'année scolaire précédente.
    Est ce mal d'utiliser l'IA pour aider dans les travaux scolaires?
    Je comprends le débat si ils font faire les devoirs par l'IA mais pour de l'aide???
    Est ce plus choquant que d'utiliser Google ou une personne payée pour aider aux devoirs?
    ChatGPT est alimenté par un système d'intelligence artificielle qui prédit quel mot ou fragment de mot, appelé "token", doit suivre dans une phrase. L'outil anti-tricherie en cours de discussion à l'OpenAI modifierait légèrement la manière dont les jetons sont sélectionnés. Ces modifications laisseraient un motif appelé « filigrane ». Ces filigranes seraient imperceptibles à l'œil nu, mais pourraient être détectés grâce à la technologie de détection de l'OpenAI. Le détecteur fournit un score indiquant la probabilité que le document entier ou une partie de celui-ci ait été écrit par ChatGPT.
    Disons donc que je donne un texte à l'analyseur qui me dit que le texte à 75% de chance d'avoir été rédigé par OpenAI.
    Que dois je en conclure?
    Il y a 25% de chances que ça ne soit pas la cas.
    Que le texte a été rédigé par IA mais qu'il a été retouché?
    Que 75% du texte est rédigé par IA mais que les 25% restant ont été rédigés manuellement?

    Je ne sais rien retirer comme conclusion en dehors du fait qu'une personne a probablement utilisé l'IA pour rédiger le texte mais qu'il a eu une démarche d'analyse et d'enrichissement du texte ce qui est ce qu'on attends du rédacteur dans la plupart des cas.
    Donc tous les cas en dessous de 95% on peut difficilement critiquer le rédacteur.
    Les filigranes sont efficaces à 99,9 % lorsque ChatGPT crée suffisamment de nouveau texte, selon les documents internes. Néanmoins, des employés ont exprimé leur inquiétude quant à la possibilité d'effacer les filigranes au moyen de techniques simples, par exemple en demandant à Google de traduire le texte dans une autre langue, puis de revenir en arrière, ou en demandant à ChatGPT d'ajouter des emojis au texte, puis de les effacer manuellement, a déclaré un employé d'OpenAI au courant de l'affaire.
    Quand j'étais à l'école un de mes potes était un petit génie de la triche, son imagination étant sans limite pour tester les limites du système et les exploiter et ça révolte les profs mais c'est une manière, de mon point de vue, de montrer qu'on est capable du niveau de réflexion attendu pour un ingénieur.
    Petit exemple : l'école a décidé de nous donner des QCM pendant une année plutôt que des travaux écrits pour gagner du temps de correction et diminuer le temps de distribution des notes (on avait les notes la demie journée après l'examen). Il a essayé de cocher toutes les cases, ce qui l'a amené à majorer la première session avec la note remarquable de 20/20. Il a fallu à l'école dix sessions de correction pour s'en rendre compte et considérer les bonnes et les mauvaises réponses.

    Pour moi l'enjeu derrière ça n'est pas l'école mais les personnes validées par le système comme un élite et qui risqueraient d'être décrédibilisés en un instant.

    PS : oui on reconnait instantanément vos PPT passés par la moulinette IA, même sans détecteur.

  13. #733
    Membre émérite

    Homme Profil pro
    Développeur informatique
    Inscrit en
    Octobre 2013
    Messages
    1 099
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : France, Paris (Île de France)

    Informations professionnelles :
    Activité : Développeur informatique
    Secteur : Conseil

    Informations forums :
    Inscription : Octobre 2013
    Messages : 1 099
    Points : 2 637
    Points
    2 637
    Par défaut
    Pour l'accessibilité les utilisateurs de lecteurs d'écrans utilisent des voix un peu robotique comme code factory Eloquance, qui ont l'avantage de ne pas bégayer à vitesse élevée, et pour les plus masochiste hi-speak(beurk), mais c'est gratuit sous linux et windows.

    Et puis perso je n'aime pas ma voix, alors je ne vais pas l'utiliser avec mon lecteur d'écrans.

    Il y a de belles voies, mais perso elles m'endorment un peu, même si les voix robotique me tape un peu sur les nerfs en fin de journée mais elles me permettent de rester concentré.

    Par contre c'est marrant quand la voix passe en français canadien.

    Aussi le lecteur d'écrans me lit souvent l'anglais avec une voix française, parfois je comprends mieux ouarf
    C'est parcque il n'y a pas d'attribut lan="en"
    Consultez mes articles sur l'accessibilité numérique :

    Comment rendre son application SWING accessible aux non voyants
    Créer des applications web accessibles à tous

    YES WE CAN BLANCHE !!!

    Rappelez-vous que Google est le plus grand aveugle d'Internet...
    Plus c'est accessible pour nous, plus c'est accessible pour lui,
    et meilleur sera votre score de référencement !

  14. #734
    Chroniqueur Actualités
    Avatar de Anthony
    Homme Profil pro
    Rédacteur technique
    Inscrit en
    Novembre 2022
    Messages
    1 184
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : France, Gironde (Aquitaine)

    Informations professionnelles :
    Activité : Rédacteur technique

    Informations forums :
    Inscription : Novembre 2022
    Messages : 1 184
    Points : 19 532
    Points
    19 532
    Par défaut Seuls 5 % des experts en cybersécurité ont confiance dans les mesures qui protègent leurs applications GenAI
    Seuls 5 % des experts en cybersécurité ont confiance dans les mesures de sécurité qui protègent leurs applications GenAI, même si 90 % d'entre eux les utilisent activement, d'après une étude de Lakera

    Bien que les entreprises adoptent massivement la GenAI, seuls 5 % des 1 000 experts en cybersécurité ayant répondu à une nouvelle enquête de Lakera ont confiance dans les mesures de sécurité protégeant leurs applications GenAI, même si 90 % d'entre eux les utilisent activement ou étudient la possibilité de les utiliser.

    Les recherches menées par Lakera montrent que les méthodes d'attaque spécifiques à la GenAI, ou attaques par invite, sont facilement utilisables par n'importe qui pour manipuler les applications, obtenir un accès non autorisé, voler des données confidentielles et entreprendre des actions non autorisées.

    Gandalf, un jeu éducatif sur l'IA créé par Lakera, invite les joueurs à essayer de tromper l'IA pour qu'elle révèle un mot de passe. Il a attiré plus d'un million de joueurs, dont des experts en cybersécurité qui ont tenté de percer ses défenses. Fait remarquable, 200 000 de ces joueurs ont réussi à franchir sept niveaux du jeu, démontrant ainsi leur capacité à manipuler les modèles de GenAI pour leur faire prendre des mesures involontaires.


    « Il suffit de quelques mots bien choisis pour que même un novice puisse manipuler les systèmes d'IA, ce qui entraîne des actions involontaires et des violations de données », déclare David Haber, cofondateur et PDG de Lakera. « Alors que les entreprises s'appuient de plus en plus sur la GenAI pour accélérer l'innovation et gérer des tâches sensibles, elles s'exposent sans le savoir à de nouvelles vulnérabilités que les mesures de cybersécurité traditionnelles ne prennent pas en compte. La combinaison d'une forte adoption et d'une faible préparation n'est peut-être pas si surprenante dans un domaine émergent, mais les enjeux n'ont jamais été aussi importants. »

    Parmi les autres résultats de l'étude, la fiabilité et la précision du LLM sont considérées comme le principal obstacle à l'adoption. 35 % des personnes interrogées craignent la fiabilité et la précision du LLM, tandis que 34 % sont préoccupées par la confidentialité et la sécurité des données. Le manque de personnel qualifié représente 28 % des préoccupations.

    Malgré ces inquiétudes, 45 % des personnes interrogées explorent les cas d'utilisation de la GenAI, 42 % utilisent et mettent en œuvre activement la GenAI et seulement 9 % n'ont pas l'intention d'adopter les LLM pour le moment. Seuls 22 % des répondants ont adopté une modélisation des menaces spécifiques à l'IA pour se préparer aux menaces spécifiques à la GenAI.

    À propos de Lakera
    Lakera est le leader mondial de la sécurité GenAI en temps réel. Les clients font confiance à la plateforme de sécurité de l'IA de Lakera pour une sécurité qui ne ralentit pas leurs applications d'IA. Pour accélérer l'adoption sécurisée de l'IA, l'entreprise a créé Gandalf, une plateforme éducative où plus d'un million d'utilisateurs se sont familiarisés avec la sécurité de l'IA. Lakera utilise l'IA pour faire évoluer en permanence les défenses, afin que les clients puissent garder une longueur d'avance sur les menaces émergentes.

    Source : "GenAI Security Readiness Report 2024" (Etude de Lakera)

    Et vous ?

    Quel est votre avis sur le sujet ?
    Trouvez-vous les conclusions de cette étude de Lakera crédibles ou pertinentes ?

    Voir aussi :

    Les craintes liées à la sécurité conduisent les entreprises à interdire l'utilisation de la GenAI : 27 % des organisations ont interdit l'utilisation de l'IA générative, selon Cisco

    52 % des membres de conseils d'administration français considèrent l'IA générative comme un risque pour la sécurité de l'entreprise, pour 84 % d'entre eux, la cybersécurité est une priorité
    Contribuez au club : corrections, suggestions, critiques, ... Contactez le service news et Rédigez des actualités

Discussions similaires

  1. Réponses: 0
    Dernier message: 21/09/2023, 22h10
  2. Réponses: 5
    Dernier message: 28/08/2023, 10h32
  3. Réponses: 0
    Dernier message: 02/04/2023, 10h33
  4. Réponses: 0
    Dernier message: 27/06/2022, 11h10
  5. Réponses: 130
    Dernier message: 11/09/2018, 08h48

Partager

Partager
  • Envoyer la discussion sur Viadeo
  • Envoyer la discussion sur Twitter
  • Envoyer la discussion sur Google
  • Envoyer la discussion sur Facebook
  • Envoyer la discussion sur Digg
  • Envoyer la discussion sur Delicious
  • Envoyer la discussion sur MySpace
  • Envoyer la discussion sur Yahoo