IdentifiantMot de passe
Loading...
Mot de passe oublié ?Je m'inscris ! (gratuit)
Navigation

Inscrivez-vous gratuitement
pour pouvoir participer, suivre les réponses en temps réel, voter pour les messages, poser vos propres questions et recevoir la newsletter

Intelligence artificielle Discussion :

OpenAI s'attaque directement à Google Search avec sa nouvelle fonctionnalité baptisée ChatGPT Search


Sujet :

Intelligence artificielle

  1. #61
    Membre extrêmement actif
    Homme Profil pro
    Inscrit en
    Janvier 2014
    Messages
    1 559
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : France

    Informations forums :
    Inscription : Janvier 2014
    Messages : 1 559
    Points : 5 955
    Points
    5 955
    Par défaut
    Avant Gemini cette connerie wokiste est déjà dans les films américains depuis des années et sur les films historiques ça choque.

    Aussi bien je trouve ça très bien d'avoir des séries avec un casting international comme par exemple on a vu sur Heroes, Lost, etc, d'autant que c'est vu dans le monde entier alors c'est cool pour tous le monde, aussi bien avoir dans les films historiques par exemple des nazis noirs ou je ne sais quelle autre imbécilité Woke c'est pénible, bientôt Hollywood va nous sortir un nouveau Biopic avec Napoléon et le personnage sera joué par un Chinois transsexuel

  2. #62
    Membre régulier
    Profil pro
    Inscrit en
    Août 2010
    Messages
    35
    Détails du profil
    Informations personnelles :
    Localisation : France

    Informations forums :
    Inscription : Août 2010
    Messages : 35
    Points : 94
    Points
    94
    Par défaut
    Ils jouent d'autant plus les wokes car ils ont arrêtés ou au moins diminués les effectifs "diversitaires" parce qu'embaucher des tonnes de gens suivant leur type et non leurs compétences ça va un moment.

    Heureusement pour le moment Stable diffusion est à peu près épargné par ces conneries.

  3. #63
    Membre du Club
    Homme Profil pro
    Développeur de jeux vidéo
    Inscrit en
    Mai 2014
    Messages
    28
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Âge : 43
    Localisation : Madagascar

    Informations professionnelles :
    Activité : Développeur de jeux vidéo
    Secteur : High Tech - Éditeur de logiciels

    Informations forums :
    Inscription : Mai 2014
    Messages : 28
    Points : 61
    Points
    61
    Par défaut Google est disqualifiée de la course à l'IA
    Bard Gemini cumule les échecs depuis un an.
    ça répond à coté, sinon les présentations publiques sont fake, puis là le générateur de photo fait n'importe quoi.
    Croire qu'il n'y a personne chez Google pour tester ces outils avant leur publication ?
    Pour moi, Google a perdu la course à l'IA. C'est fini.

  4. #64
    Membre expert
    Homme Profil pro
    Étudiant
    Inscrit en
    Novembre 2021
    Messages
    1 206
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : France, Drôme (Rhône Alpes)

    Informations professionnelles :
    Activité : Étudiant

    Informations forums :
    Inscription : Novembre 2021
    Messages : 1 206
    Points : 3 285
    Points
    3 285
    Par défaut
    Les excuses de Google font suite aux critiques concernant la représentation de personnages blancs spécifiques (tels que les pères fondateurs des États-Unis) ou de groupes tels que les soldats allemands de l'époque nazie en tant que personnes de couleur, ce qui pourrait constituer une correction excessive des problèmes de préjugés raciaux existant de longue date dans l'IA.
    Trolldi.


  5. #65
    Inactif  
    Profil pro
    undef
    Inscrit en
    Février 2013
    Messages
    1 001
    Détails du profil
    Informations personnelles :
    Localisation : France, Lot (Midi Pyrénées)

    Informations professionnelles :
    Activité : undef

    Informations forums :
    Inscription : Février 2013
    Messages : 1 001
    Points : 3 671
    Points
    3 671
    Par défaut
    Il aura fallu que des nazis noirs apparaissent pour que Google reconnaisse enfin le problème woke.

  6. #66
    Communiqués de presse

    Femme Profil pro
    Traductrice Technique
    Inscrit en
    Juin 2023
    Messages
    1 643
    Détails du profil
    Informations personnelles :
    Sexe : Femme
    Localisation : France

    Informations professionnelles :
    Activité : Traductrice Technique

    Informations forums :
    Inscription : Juin 2023
    Messages : 1 643
    Points : 115 067
    Points
    115 067
    Par défaut Google prévoit de relancer dans les prochaines semaines son outil d'IA Gemini
    Google prévoit de relancer dans les prochaines semaines son outil d'IA Gemini qui crée des images de personnes, après l'avoir stoppé en raison d'inexactitudes grotesques dans certaines représentations

    Google prévoit de relancer dans les prochaines semaines son outil d'IA qui crée des images de personnes, qu'il a mis en pause après des inexactitudes dans certaines représentations historiques, a déclaré le PDG de Google DeepMind, Demis Hassabis.

    Google a commencé à proposer la génération d'images via ses modèles d'IA Gemini au début du mois. Certains utilisateurs ont toutefois signalé sur les médias sociaux qu'elle générait des images historiques parfois inexactes.

    "Nous avons mis la fonction hors ligne le temps de résoudre ce problème. Nous espérons la remettre en ligne très prochainement, dans les deux semaines à venir", a déclaré M. Hassabis lors d'une table ronde organisée dans le cadre du Mobile World Congress à Barcelone. L'outil ne fonctionnait pas "comme nous l'avions prévu", a-t-il ajouté.

    Les actions d'Alphabet étaient en baisse de 3,5 %, ce qui représentait la plus forte baisse de l'indice de référence S&P 500.


    Depuis le lancement de ChatGPT d'OpenAI en novembre 2022, Google s'est lancé dans une course pour produire un logiciel d'IA capable de rivaliser avec celui de la société soutenue par Microsoft. Lorsque Google a lancé son chatbot d'IA générative Bard il y a un an, il avait communiqué des informations inexactes sur des photos d'une planète située en dehors du système solaire de la Terre dans une vidéo promotionnelle, ce qui avait fait chuter ses actions de 9 %.

    Bard a été rebaptisé Gemini et Google a mis en place des formules d'abonnement payantes, que les utilisateurs peuvent choisir pour bénéficier de meilleures capacités de raisonnement de la part du modèle d'IA. "Nous n'en sommes qu'aux premiers stades du développement de l'IA générative, mais si les pépins ou les inexactitudes persistent, c'est là que les gens commencent à s'inquiéter", a déclaré Bob O'Donnell, analyste en chef chez TECHnalysis Research.

    Source : Google

    Et vous ?

    Quel est votre avis sur le sujet ?

    Voir aussi :

    Gemini, l'outil IA de Google qui transforme les mots en images, taxé de "woke" et critiqué pour avoir généré des nazis de différentes origines ethniques, en réponse à des requêtes historiques

    Gemini Pro 1.5 : l'une des utilisations du modèle d'IA de Google est de générer du code à partir de vidéos, avec un contexte d'1 million de jetons, dépassant Claude 2.1 et gpt-4-turb

    Google rebaptise son chatbot Bard en Gemini, lance un abonnement payant pour profiter de Gemini Ultra et propose une application dédiée sur Android qui va remplacer Google Assistant

  7. #67
    Chroniqueur Actualités

    Homme Profil pro
    Administrateur de base de données
    Inscrit en
    Mars 2013
    Messages
    8 987
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : Canada

    Informations professionnelles :
    Activité : Administrateur de base de données

    Informations forums :
    Inscription : Mars 2013
    Messages : 8 987
    Points : 207 945
    Points
    207 945
    Par défaut Le PDG de Google qualifie de « totalement inacceptables » les erreurs de diversité commises par l'IA Gemini
    Le PDG de Google qualifie de « totalement inacceptables » les erreurs de diversité commises par l'IA Gemini et s'engage à procéder à des changements structurels,
    des erreurs qui ont coûté 90 milliards de dollars à la capitalisation boursière de l'entreprise

    Le PDG de Google, Sundar Pichai, a récemment exprimé son mécontentement concernant l’outil Gemini AI. Dans une note adressée aux employés, il a déclaré que certaines des réponses textuelles et visuelles générées par le modèle étaient biaisées et complètement inacceptables. Cette situation a suscité des réactions négatives de la part des utilisateurs et a mis en évidence des problèmes de partialité.

    La semaine dernière, Google a présenté ses excuses pour ce qu’il décrit comme des « inexactitudes dans certaines représentations historiques générées par l’image » avec son outil Gemini, en disant que ses tentatives de créer une « large gamme » de résultats ont manqué la cible. Gemini est un outil d’intelligence artificielle lancé par Google qui peut créer des images en réponse à des requêtes écrites. Il a rapidement attiré des critiques, qui ont accusé l’entreprise de former le bot à être trop «woke».

    Les résultats semblaient montrer de manière écrasante ou exclusive des personnes de couleur générées par l'IA (bien sûr, tous les endroits qu'il a cités comptent des femmes de couleur, et aucune des femmes générées par l'IA n'existe dans aucun pays). La critique a été reprise par des comptes de droite qui ont demandé des images de groupes historiques ou de personnages tels que les Pères fondateurs et qui ont prétendument obtenu comme résultats des personnes générées par l'IA qui n'étaient pas blanches dans leur grande majorité.

    Certains de ces comptes ont présenté les résultats de Google comme faisant partie d'une conspiration visant à éviter la représentation de personnes blanches, et au moins un compte a utilisé une référence antisémite codée pour rejeter la faute sur les autres.

    Google a décidé de suspendre la génération d'images de personnes par Gemini, le temps d'effectuer les modifications nécessaires.

    Nom : america.png
Affichages : 14834
Taille : 397,8 Ko

    Le PDG de Google qualifie les réponses controversées de l'outil d'IA de « totalement inacceptables »

    Sundar Pichai, PDG de Google, a abordé mardi soir la controverse sur Gemini, qualifiant d'inacceptables les réponses problématiques de l'application d'intelligence artificielle en matière d'origine ethnique et s'engageant à procéder à des changements structurels pour résoudre le problème.

    La plupart des entreprises qui proposent des outils d'IA comme Gemini créent des garde-fous pour limiter les abus et éviter les préjugés, en particulier à la lumière d'autres expériences. Par exemple, les outils de génération d'images d'entreprises comme OpenAI ont été critiqués lorsqu'ils ont créé des images prédominantes de personnes blanches dans des rôles professionnels et dépeignant des personnes noires dans des rôles stéréotypés.

    « Je sais que certaines de ses réponses ont offensé nos utilisateurs et montré des préjugés - pour être clair, c'est tout à fait inacceptable et nous nous sommes trompés », a déclaré Pichai dans la note.

    Pichai a déclaré que l'entreprise avait déjà fait des progrès dans la correction des garde-fous de Gemini. « Nos équipes ont travaillé 24 heures sur 24 pour résoudre ces problèmes. Nous constatons déjà une amélioration substantielle sur un large éventail d'invites », a-t-il déclaré.

    Ci-dessous, le memo entier :

    Je souhaite aborder les récents problèmes liés aux réponses textuelles et imagées de l'application Gemini (anciennement Bard). Je sais que certaines de ses réponses ont offensé nos utilisateurs et fait preuve de partialité - pour être clair, c'est tout à fait inacceptable et nous nous sommes trompés.

    Nos équipes ont travaillé sans relâche pour résoudre ces problèmes. Nous constatons déjà une amélioration substantielle sur un large éventail d'invites. Aucune IA n'est parfaite, surtout à ce stade émergent du développement de l'industrie, mais nous savons que la barre est haute pour nous et nous continuerons à travailler aussi longtemps qu'il le faudra. Nous examinerons ce qui s'est passé et nous nous assurerons de le corriger à grande échelle.

    Notre mission, qui consiste à organiser l'information mondiale et à la rendre universellement accessible et utile, est sacro-sainte. Nous avons toujours cherché à fournir aux utilisateurs des informations utiles, précises et impartiales dans nos produits. C'est pourquoi les gens leur font confiance. Nous devons adopter cette approche pour tous nos produits, y compris nos nouveaux produits d'intelligence artificielle.

    Nous mènerons une série d'actions claires, notamment des changements structurels, des lignes directrices actualisées sur les produits, des processus de lancement améliorés, des évaluations robustes et des équipes d'experts, ainsi que des recommandations techniques. Nous examinons tout cela et nous apporterons les changements nécessaires.

    Même si nous tirons les leçons de ce qui n'a pas fonctionné, nous devons également nous appuyer sur les annonces techniques et de produits que nous avons faites dans le domaine de l'IA au cours des dernières semaines. Il s'agit notamment d'avancées fondamentales dans nos modèles sous-jacents, par exemple notre percée d'un million de fenêtres à long contexte et nos modèles ouverts, qui ont tous deux été bien accueillis.

    Nous savons ce qu'il faut pour créer d'excellents produits qui sont utilisés et appréciés par des milliards de personnes et d'entreprises, et grâce à notre infrastructure et à notre expertise en matière de recherche, nous disposons d'un tremplin incroyable pour la vague de l'IA. Concentrons-nous sur ce qui compte le plus : créer des produits utiles qui méritent la confiance de nos utilisateurs.


    La perspective du marché

    Alphabet, la société mère de Google, a perdu quelque 90 milliards de dollars en valeur boursière lundi, la controverse sur le produit d'intelligence artificielle générative du géant de la Silicon Valley ayant fait son chemin jusqu'à Wall Street. Les actions d'Alphabet ont chuté de 4,5 % à 138,75 dollars lundi, clôturant à leur prix le plus bas depuis le 5 janvier et enregistrant la deuxième plus forte perte quotidienne de l'année dernière.

    Cette chute a fait suite à une série de controverses autour du service d'IA Gemini de Google, avec des problèmes tels que le service de génération d'images de Gemini produisant des représentations raciales inexactes de personnages historiques et son chatbot refusant de déterminer le personnage historique ayant le plus d'impact négatif entre Adolf Hitler et Elon Musk, ce qui a conduit l'entreprise à admettre qu'elle avait « raté le coche » lors du déploiement initial de Gemini et à mettre son service d'images d'IA hors ligne pour les prochaines semaines.

    « Il s'agit d'une bévue significative dans la bataille de relations publiques autour de l'IA générative et cela suggère que Google est à la traîne et mal exécuté dans un espace qui évolue rapidement et dont les enjeux sont importants », a écrit Rob Sanderson, analyste chez Loop Capital, dans une note adressée aux clients dimanche.

    « Le problème pour l'action n'est pas le débat [sur Gemini] lui-même, c'est la perception de la vérité derrière la marque », ont écrit Ben Reitzes et Nick Monroe, analystes chez Melius Research, dans une note adressée aux clients lundi. « Indépendamment de votre opinion, si Google est perçu comme une source d'IA peu fiable par une partie de la population, ce n'est pas bon pour les affaires », poursuivent les analystes.

    La propulsion d'Alphabet dans la « ligne de mire » du débat sur la guerre culturelle pourrait remettre en question sa mainmise sur le marché de la recherche en ligne, selon l'hypothèse du groupe Melius, compte tenu du rôle croissant de l'IA dans la recherche en ligne et de la possibilité « qu'une partie significative des utilisateurs s'inquiète des hallucinations et des préjugés de l'IA de Google ». L'apparente partialité de Gemini est le dernier faux pas d'Alphabet dans la course aux armements de l'IA, dans laquelle son rival Microsoft semble être en pole position. Alphabet a perdu plus de 100 milliards de dollars de capitalisation boursière le jour de l'annonce de son service de chatbot d'IA en février dernier, après que le communiqué de presse ait inclus des erreurs factuelles commises par le service.

    Nom : google.png
Affichages : 5439
Taille : 376,5 Ko

    Conclusion

    La controverse sur Gemini a alimenté les critiques de la droite, qui accusent souvent les entreprises technologiques de partialité libérale.

    Mais il ne s'agit pas vraiment d'un parti pris. Elle montre que Google a commis des erreurs techniques dans la mise au point de ses modèles d'intelligence artificielle. Le problème ne réside pas dans les modèles sous-jacents eux-mêmes, mais dans les garde-fous logiciels qui chapeautent le modèle.

    Il s'agit d'un défi auquel sont confrontées toutes les entreprises qui conçoivent des produits d'IA grand public, et pas seulement Google. Personne chez Google n'a voulu forcer Gemini à représenter le pape comme une femme, ou les Vikings comme des Noirs, et personne n'a voulu qu'il établisse une équivalence morale entre Musk et Hitler. Il s'agissait d'une tentative ratée de réduire les préjugés, et elle a mal tourné.

    Cette débâcle montre à quel point Google évolue rapidement. Comme toutes les grandes entreprises, Google a ralenti au fil des ans. Mais la course à l'IA générative l'a contraint à accélérer le développement de ses produits.

    Les erreurs de Gemini sont un problème technique qui peut être résolu et la note de Pichai au personnel mardi soir montre que l'entreprise y travaille. Mais les problèmes de réputation que cela soulève pourraient ne pas être aussi faciles à résoudre.

    Source : mémo de Sundar Pichai

    Et vous ?

    Quelle est votre expérience personnelle avec Gemini AI ? Avez-vous déjà utilisé cet outil et avez-vous remarqué des biais ou des problèmes dans les réponses générées ?
    Pensez-vous que les abonnements payants pour Gemini AI sont justifiés ? Quelle est votre opinion concernant la monétisation de cet outil ? La version payante améliore-t-elle réellement la qualité des réponses ?
    Comment devrions-nous évaluer la performance des modèles d’intelligence artificielle ? Quels sont, selon vous, les critères de succès et les mesures objectives pour évaluer l’efficacité de Gemini AI ?
    Quelles mesures devrait prendre Google pour réduire les biais dans les réponses générées par Gemini AI ?
    Quel rôle joue la transparence dans le développement des technologies d’intelligence artificielle ? Partagez votre avis sur l’importance de la transparence et de la responsabilité dans ce domaine.

    Voir aussi :

    Google rebaptise son chatbot Bard en Gemini, lance un abonnement payant pour profiter de Gemini Ultra et propose une application dédiée sur Android qui va remplacer Google Assistant
    Google prévoit de relancer dans les prochaines semaines son IA Gemini qui crée des images de personnes , après l'avoir stoppé en raison d'inexactitudes grotesques sur les représentations historiques

  8. #68
    Inactif  
    Profil pro
    undef
    Inscrit en
    Février 2013
    Messages
    1 001
    Détails du profil
    Informations personnelles :
    Localisation : France, Lot (Midi Pyrénées)

    Informations professionnelles :
    Activité : undef

    Informations forums :
    Inscription : Février 2013
    Messages : 1 001
    Points : 3 671
    Points
    3 671
    Par défaut
    Leur problème, c'est de vouloir faire des IA sans personnalité alors, forcément, cela ne peut que mécontenter tout le monde. Il ferait plusieurs IA avec chacune leur personnalité (aka biais propres), tout le monde s'y retrouverait et pourrait choisir celle qui leur semble la plus honnête.

  9. #69
    Membre averti
    Homme Profil pro
    Ergonome
    Inscrit en
    Octobre 2016
    Messages
    166
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Âge : 60
    Localisation : France, Paris (Île de France)

    Informations professionnelles :
    Activité : Ergonome
    Secteur : Arts - Culture

    Informations forums :
    Inscription : Octobre 2016
    Messages : 166
    Points : 315
    Points
    315
    Par défaut
    Je trouve ce "scandale" des ethnies déguisées sans intérêt.

    N'importe qui peut mettre un casque de martien à un humain d'ethnie anti-martienne sous GIMP et ça n'a jamais fait jaser personne.
    D'ailleurs, c'est tellement absurde que personne n'a jamais consacré 5 minutes pour réaliser ce genre d'ineptie.

    Il est vraiment dommage que Google ait bloqué les représentations humaines à cause d'un timbre poste de mauvais goût. Gemini m'a récemment empêché de modifier un avatar en envoyant un message d'erreur. Résultat, je me suis tourné vers une offre payante et moins exposée médiatiquement.

    Personnellement, Bard m'a rendu de grands services par le passé alors que GPT, réputé plus agile, était soit limité aux informations de 2020 soit complètement aux fraises. Je préfère nettement un Bard moins pointu mais accédant à tout l'internet qu'un GPT réputé pointu mais totalement ignorant.

    Clairement, Bard était capable d'accéder à la base de recherche Google en temps réel ce qui lui apportait un avantage autrement utile.

  10. #70
    Inactif  
    Profil pro
    undef
    Inscrit en
    Février 2013
    Messages
    1 001
    Détails du profil
    Informations personnelles :
    Localisation : France, Lot (Midi Pyrénées)

    Informations professionnelles :
    Activité : undef

    Informations forums :
    Inscription : Février 2013
    Messages : 1 001
    Points : 3 671
    Points
    3 671
    Par défaut
    Citation Envoyé par commandantFred Voir le message
    ...
    N'importe qui peut mettre un casque de martien à un humain d'ethnie anti-martienne sous GIMP et ça n'a jamais fait jaser personne...

    Le problème c'est que dans le cas présent, il n'a jamais été demandé à l'IA de faire preuve de fantaisie ou "d'imagination". Les requêtes étaient du genre : Montres-moi un authentique Viking de l'Histoire Norvégienne.
    Se retrouver avec un Booba à casque ou un Gengis Khan sur un drakkar, ce n'est clairement pas ce qui était demandé.

  11. #71
    Chroniqueur Actualités
    Avatar de Anthony
    Homme Profil pro
    Rédacteur technique
    Inscrit en
    Novembre 2022
    Messages
    1 260
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : France, Gironde (Aquitaine)

    Informations professionnelles :
    Activité : Rédacteur technique

    Informations forums :
    Inscription : Novembre 2022
    Messages : 1 260
    Points : 20 744
    Points
    20 744
    Par défaut Apple envisage de confier les fonctions d'IA de l'iPhone à Gemini de Google
    Apple envisage de confier les fonctions d'IA de l'iPhone à Gemini, le moteur d'IA de Google, des fonctions telles que la création d'images ou la rédaction d'essais à partir d'invites simples

    Apple est en pourparlers pour intégrer le moteur d'intelligence artificielle (IA) Gemini de Google dans l'iPhone, selon un rapport publié le lundi 18 mars par Bloomberg News, citant des personnes au fait de la situation.

    Apple a également discuté récemment avec OpenAI, soutenu par Microsoft, et a envisagé d'utiliser son modèle, ajoute le rapport.

    Apple prépare de nouvelles fonctionnalités dans le cadre de son prochain iPhone iOS 18, basées sur ses propres modèles d'IA, mais elle cherche un partenaire pour alimenter les fonctions d'IA générative, y compris les fonctions de création d'images et de rédaction d'essais basées sur des invites simples, selon le rapport.


    Les deux parties n'ont pas décidé des termes ou de la marque d'un accord sur l'IA ni finalisé la manière dont il serait mis en œuvre, a déclaré Bloomberg, ajoutant qu'il était peu probable qu'un accord soit annoncé avant le mois de juin, lorsque Apple prévoit de tenir sa conférence annuelle des développeurs mondiaux (Worldwide Developers Conference).

    Apple a été plus lent à déployer l'IA générative, qui peut générer des réponses semblables à celles d'un être humain à partir d'invites écrites, que ses rivaux Microsoft et Google, qui l'intègrent dans leurs produits.

    Le mois dernier, Tim Cook, PDG d'Apple, a déclaré que l'entreprise prévoyait de dévoiler plus tard dans l'année ses projets d'utilisation de l'IA générative, ajoutant que l'entreprise investissait "de manière significative" dans ce domaine.

    Apple et Google ont déjà conclu un accord qui permet à Google d'être le moteur de recherche par défaut du navigateur web Safari d'Apple.

    Toutefois, cet accord a fait l'objet d'un examen réglementaire, les États-Unis et leurs alliés étatiques affirmant que Google a illégalement étouffé la concurrence en versant des milliards de dollars à Apple et à d'autres partenaires commerciaux pour s'assurer que son moteur de recherche serait le moteur par défaut sur la plupart des téléphones et des navigateurs web.

    Google a également conclu un partenariat avec Samsung en janvier pour déployer plusieurs produits de technologie d'IA générative dans la série de smartphones Galaxy S24 de l'entreprise sud-coréenne.

    Et vous ?

    Quel est votre avis sur le sujet ?

    Voir aussi :

    Gemini, l'outil IA de Google qui transforme les mots en images, taxé de "woke" et critiqué pour avoir généré des nazis de différentes origines ethniques en réponse à des requêtes historiques

    Apple achète la startup DarwinAI pour renforcer son équipe d'IA, avant les mises à jour majeures d'IA générative prévues dans iOS 18

  12. #72
    Chroniqueur Actualités
    Avatar de Patrick Ruiz
    Homme Profil pro
    Redacteur web
    Inscrit en
    Février 2017
    Messages
    2 091
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : Cameroun

    Informations professionnelles :
    Activité : Redacteur web
    Secteur : Communication - Médias

    Informations forums :
    Inscription : Février 2017
    Messages : 2 091
    Points : 56 527
    Points
    56 527
    Par défaut L’IA Gemini dans Gmail va passer au crible les courriels et fournir des résumés de recherche
    L’intelligence artificielle Gemini dans Gmail va passer au crible les courriels, fournir des résumés de recherche et envoyer des courriels
    D’après les annonces de la dernière conférence Google I/O

    Google lâche son intelligence artificielle Gemini sur des milliards de messages privés. C’est ce qui ressort de la dernière conférence Google I/O dans laquelle le géant technologique annonce l’intégration de cette IA à Google Workspaces. L’objectif : résumer des courriels. Ces possibilités ne viennent néanmoins pas sans revers : les atteintes à la vie privée des utilisateurs et les violations de copyright.

    La manœuvre s’inscrit en droite ligne avec de précédentes initiatives de Google en termes de menace contre la vie privée des utilisateurs et de violation de droits d’auteurs. En effet, Google a annoncé à mi-parcours de l’année précédente que son intelligence artificielle Bard s’appuie sur tout ce qui est publié en ligne comme données d’entraînement. L’entreprise s’est donc retrouvée dans le viseur d’une plainte pour pillage de données publiques aux fins d’entraînement de son chatbot Bard. L’accès de l’intelligence artificielle Bard aux applications Gmail, Docs et Drive avait par la suite constitué une occasion supplémentaire de mettre les avantages et les inconvénients de la mise à contribution de cette intelligence artificielle. Avec son intégration à Messages, Google lâche son intelligence artificielle sur des milliards de messages privés. Elle lira et analysera les contenus dans Google Messages en remontant depuis la nuit des temps.

    Cette mise à jour pour Google Messages fait partie d'une tendance et l'on peut s'attendre à l'atterrissage de nombreux ajouts de ce type. Chrome vient de faire une annonce sur l'introduction de trois nouvelles versions d'IA utiles qui font leur chemin en version bêta : gestion automatisée des onglets, création de thèmes, fonction Help me write. La fonctionnalité Help me write est disponible à la fois sur le Web et dans les applications, mais il faut rédiger soi-même l'invite de l'e-mail à l'aide du clavier. Sur l'application Gmail pour Android, Google travaille sur une fonctionnalité qui permettra de rédiger des e-mails à l'aide d'invites vocales.

    En sus, il y a la nouvelle qu'Android Auto utilisera l'intelligence artificielle pour filtrer intelligemment les informations qui entrent et sortent du système, pendant que le conducteur garde ses mains sur le volant et ses yeux sur la route.

    En toile de fond, c’est une bataille Google contre Apple contre Facebook qui se joue. Il y a des éléments d'intégration de Siri dans iMessage, mais ils sont limités à la messagerie elle-même. WhatsApp est positionné de manière plus intéressante au sein de l'écurie Meta. Il est clair que Meta sera en mesure d'apporter quelque chose de ce genre à WhatsApp sans grande difficulté. Meta peut compter sur son propre réseau pour y parvenir. WhatsApp et Facebook Messenger sont tous deux multiplateformes et plus largement adoptés que Google Messages. Cela est susceptible d’apporter un nouvel angle à la monétisation de Meta.

    L'intelligence artificielle intégrée à la messagerie conduira à l’application du même modèle économique que celui qui sous-tend la recherche et de nombreux autres services. Les annonceurs paieront pour atteindre les utilisateurs et de ce fait, ces services leur seront offerts sans nécessité de débourser des sous. Les tiers désireux de ne pas être le produit pourront opter pour des offres payantes comme celle de Samsung.

    Source : Google

    Et vous ?

    Quels risques entrevoyez-vous à l’intégration de Gemini à des services tels que Gmail, Docs et Google Messages ?

    Voir aussi :

    Le chatbot Bard de Google est enfin lancé dans l'UE et prend désormais en charge plus de 40 langues, mais les préoccupations en matière de protection de la vie privée persistent

    Des utilisateurs de ChatGPT signalent qu'ils peuvent voir l'historique des conversations d'autres personnes dans la barre latérale, ce qui suscite des préoccupations sur la sécurité de l'outil d'IA

    Microsoft ne s'inquiète pas du chatbot Bard de Google qu'elle qualifie d'inférieur à Bing Search

  13. #73
    Membre chevronné
    Profil pro
    MOA
    Inscrit en
    Décembre 2002
    Messages
    1 117
    Détails du profil
    Informations personnelles :
    Localisation : France, Eure et Loir (Centre)

    Informations professionnelles :
    Activité : MOA

    Informations forums :
    Inscription : Décembre 2002
    Messages : 1 117
    Points : 2 081
    Points
    2 081
    Par défaut
    Citation Envoyé par Patrick Ruiz Voir le message
    Quels risques entrevoyez-vous à l’intégration de Gemini à des services tels que Gmail, Docs et Google Messages ?
    Je pense que l'on est tout d'accord que ce ne sera pas top en terme de vie privée.
    Après reste à savoir si les gens sont à dupes que si Google mets en place une fonction de desactivation de l'IA (promis juré, craché, je ne regarde pas dans tes mails, tes parcours en voiture, tes programmes TV préférés, ...), ce n'est qu'un simple affichage comme indicateur.

    Du point de vue Google est récolter un maximum d'information d'un maximum de personne (donc peu de fuites d'utilisateurs).
    A mon avis, pouur Google, pas trop de risque à proposer ce type de produits pour atteindre leurs objetifs surtout si les média généralistes n'évoquent pas les intérets du coté de Google à proposer ce type de service.

  14. #74
    Chroniqueur Actualités

    Homme Profil pro
    Rédacteur technique
    Inscrit en
    Juin 2023
    Messages
    908
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : Bénin

    Informations professionnelles :
    Activité : Rédacteur technique
    Secteur : High Tech - Éditeur de logiciels

    Informations forums :
    Inscription : Juin 2023
    Messages : 908
    Points : 16 176
    Points
    16 176
    Par défaut Un ancien employé de Google affirme que la panique de l'entreprise face à l'IA rappelle le fiasco de Google+
    Un ancien employé de Google affirme que la panique de l'entreprise face à l'IA ressemble à s'y méprendre au fiasco de Google+
    et que les projets d'IA ne sont pas motivés par les besoins des utilisateurs

    Scott Jenson, qui a quitté Google le mois dernier après y avoir travaillé pendant 16 ans, a exprimé ses inquiétudes concernant les projets d'IA sur lesquels il avait travaillé avant son départ. Il a déclaré que les travaux de Google en matière d'IA sont motivés par "une panique glaciale" à l'idée d'être distancé et a comparé l'obsession de l'entreprise pour l'IA au lancement de Google+ en réaction à Facebook. Il estime que la vision de Google en matière d'IA manque d'une véritable motivation pour répondre aux besoins des utilisateurs. L'objectif de Google serait de construire une IA semblable à Jarvis (Iron Man) et l'entreprise aurait peur que quelqu'un d'autre le fasse avant lui.

    Lancé fin novembre 2022, le chatbot d'IA ChatGPT a été perçu comme une menace pour le moteur de recherche hégémonique de Google et les dizaines de milliards de dollars qu'il génère par an. L'idée avait suffi à déclencher une grande panique chez Google et le PDG Sundar Pichai avait lancé le mois suivant une alerte rouge à ses équipes pour développer rapidement une réponse à ChatGPT. À peine deux mois plus tard, début février 2023, Google lançait Bard, sa réponse à ChatGPT. Cependant, Bard a connu des débuts difficiles, marqués par des erreurs ridicules, et sera rebaptisé Gemini au mois de février de cette année.

    À en croire Scott Jenson, vétéran de Google qui a quitté de concepteur UX senior en mai, ces difficultés s'expliquent par le fait que "les travaux du géant de la recherche dans le domaine de l'IA ont été motivés par une panique glaciale". Selon le profil LinkedIn de Jenson, ce diplômé de Stanford a travaillé chez Google pendant environ 16 ans, au cours de trois périodes distinctes. Il a déclaré que Google a peur d'être distancé et pense que la solution est d'incorporer l'IA dans tout. Dans un billet sur LinkedIn, il a déclaré que ces projets n'étaient pas axés sur les besoins des utilisateurs, mais plutôt motivés par la peur d'être distancé.


    Jenson compare l'obsession actuelle de Google pour l'IA à la réaction de l'entreprise face à Facebook il y a 13 ans, qui a abouti à l'échec de Google+. Lancé en 2011 pour rivaliser avec Facebook et Twitter, c'était la quatrième tentative de Google pour créer un réseau social. Mais la plateforme n'a pas réussi à convaincre les gens, même après que Google a forcé les choses en la poussant sur la communauté florissante de YouTube. Dès la fin de l'année 2011, les analystes rédigeaient déjà des nécrologies. Google y a cru pendant longtemps et n'a décidé de fermer le site qu'après avoir découvert une violation de données en 2018.

    « Google+ était voué à l'échec dès le premier jour. Les problèmes liés à une interface utilisateur peu maniable et changeante, le fait d'être le dernier arrivé face à des géants comme Facebook, une expérience utilisateur décousue et des rumeurs de désaccords internes sur la manière dont Google+ devait être exploité ont tous affecté la plateforme », a déclaré Matt Navarra, consultant en médias sociaux, à la BBC. Ce fut un échec spectaculaire, comme Google en connaîtra de nombreux autres par la suite, notamment avec des expériences telles que Google Glass, Google Tango, Google Allo, Daydream, Google Lively, et bien plus encore.

    Citation Envoyé par Scott Jenson

    Les projets d’IA sur lesquels je travaillais étaient mal motivés et motivés par cette panique que tant qu’il y aurait de l'IA dedans, ce serait génial. Cette myopie n’est PAS quelque chose qui est motivé par un besoin de l’utilisateur. C’est une panique glaciale qu’ils soient laissés pour compte.

    La vision est qu’il y aura un assistant Tony Stark comme Jarvis dans votre téléphone qui vous enferme dans leur écosystème si fort que vous ne le quitterez jamais. Cette vision est de l’herbe à chat pure. La crainte est qu’ils ne peuvent pas se permettre de laisser quelqu’un d’autre arriver en premier.

    C’est exactement ce qui s’est passé il y a 13 ans avec Google+ (j’étais là aussi pour ce fiasco). C’était une réaction similaire, mais à Facebook.
    Lors de sa première mission, qui s'est déroulée de 2005 à 2011, Jenson a géré l'interface utilisateur mobile de Google. Il a ensuite réintégré Google en 2013, où il a passé plus de huit ans à se concentrer sur la stratégie produit. La dernière et plus courte période de Jenson chez Google s'est déroulée d'avril 2022 à mars 2024, où il a fait des recherches sur les nouvelles utilisations de la technologie haptique pour Android. Sur LinkedIn, après que son billet critique est devenu viral, Jenson a édité son message pour préciser qu'il n’était pas "un cadre supérieur" chez Google et que les projets sur lesquels il travaillait étaient assez limités.

    « Mon commentaire vient davantage d’une frustration générale de l’ensemble de l’industrie et de son approche de l’IA », a-t-il précisé. Mais son récit exprime un avis largement partagé dans la communauté et s'aligne sur les expériences d'autres anciens employés de Google, suggérant que Google donne la priorité au profit plutôt qu'à la qualité du produit, en particulier dans le cas de la recherche. Les efforts incessants de Google en matière d'IA ont entraîné une perte de confiance de la part des utilisateurs, des référenceurs, des annonceurs, des marques et des créateurs de contenu. Une situation qui commence à exaspérer les gens.

    Dans son billet, Jenson mentionne également les tentatives similaires d'Apple qui visent à verrouiller les utilisateurs dans l'écosystème iOS en intégrant une IA dans son assistant Siri. Il prévient que les entreprises qui travaillent sur l'IA sans motivation ou vision claire risquent d'être dépassées par celles qui voient plus grand". « D’ailleurs, Apple n’est pas différent. Eux aussi essaient de créer ce verrouillage de l’IA avec Siri. Lorsque l'empereur n'aura plus de vêtements, ils seront dépassés par quelqu'un qui voit plus grand », a déclaré Jenson, qui a également travaillé pendant 8 ans chez Apple comme concepteur d'interface utilisateur.

    Les critiques cinglantes de Jenson interviennent alors que les géants de la technologie tels que Google et Apple s'efforcent de rattraper les startups d'IA comme OpenAI. Et les poches profondes de Google et d'Apple, ainsi que leurs investissements antérieurs dans l'IA, ne leur ont pas vraiment permis de prendre une avance significative dans la course à l'IA. En fait, les responsables des logiciels d'Apple ont passé des semaines à tester eux-mêmes ChatGPT avant de se rendre compte qu'ils devaient mettre à jour leur assistant numérique Siri. En outre, selon Bloomberg, Apple serait sur le point de conclure un partenariat avec OpenAI.

    L'accord devrait lui permettre d'intégrer ChatGPT dans la prochaine version d'iOS. Mais malgré son potentiel, l'IA n'est pas encore capable de tenir ses promesses. Google a révélé une tonne de projets d'IA lors de l'événement I/O 2024. Mais la plupart de ces projets sont encore au stade expérimental, ne sont accessibles qu'à quelques utilisateurs ou ne seront pas disponibles avant la fin de l'année. On ne sait pas encore quelle valeur ces projets apporteront aux utilisateurs ni s'ils seront utiles. Selon Google, des fonctionnalités telles que la reconnaissance de l'écriture manuscrite dans Gmail ou Google Docs sont déjà disponibles.

    Toutefois, il n'est pas certain que les utilisateurs s'en servent ou les trouvent utiles. Vous vous souvenez peut-être de la voix artificielle "Duplex" de Google, qui a fait couler beaucoup d'encre et qui était censée automatiser tous les appels téléphoniques ennuyeux et les centres d'appels. C'était en 2018. Depuis, nous avons vu ce qu'il en est advenu. L'un des principaux exemples de la démarche agressive de Google est la fonction d'aperçu de l'IA, qui génère des résumés pour répondre directement aux requêtes de recherche avec des informations provenant de l'ensemble du Web. Avec tout cela, l'on peut faire le point suivant :

    Les produits ne sont pas motivés par les besoins des utilisateurs

    La critique de Jenson fait écho aux commentaires qui décrivent la conférence des développeurs Google I/O de cette année comme la plus ennuyeuse jamais organisée. Les critiques reprochent à Google de ne pas avoir précisé comment la nouvelle technologie d'IA de Gemini s'intégrerait dans ses produits existants et améliorerait l'expérience de l'utilisateur.

    Google fait face à plusieurs controverses sur les aperçus de l'IA

    La fonction de synthèse de l'IA de Google, qui génère des résumés pour répondre directement aux requêtes de recherche en ingérant des informations provenant de l'ensemble du Web, a donné lieu à des batailles juridiques. Les éditeurs accusent Google de violer les droits de propriété intellectuelle et de profiter injustement de leur contenu sans autorisation.

    Il existe des tensions croissantes sur l'utilisation des données

    La controverse entourant les aperçus d'IA crée des tensions entre les entreprises technologiques et les créateurs de contenu au sujet de l'utilisation des données en ligne pour l'entraînement de l'IA. Les éditeurs affirment que les résumés d'IA de Google pourraient siphonner le trafic des sites Web.

    L'IA menace ainsi les sources de revenus des créateurs indépendants, qui dépendent des références de recherche. Le débat reflète la nécessité d'actualiser les cadres afin d'équilibrer l'innovation et la rémunération équitable des créateurs de contenu, et de maintenir un écosystème Internet ouvert et durable.

    Source : billet de blogue

    Et vous ?

    Quel est votre avis sur le sujet ?
    Que pensez-vous des critiques de Scott Jenson à l'égard des projets d'IA de Google ?
    L'accent mis par Google sur l'IA constitue-t-il une orientation potentiellement dangereuse ?
    Que pensez-vous des récentes fonctionnalités d'IA intégrées par Google à son moteur de recherche ?
    Rendent-elles le moteur de recherche plus utile ? Ou nuisent-elles à l'expérience traditionnelle de recherche ?
    Que pensez-vous de la comparaison que fait Scott Jenson entre l'obsession de Google pour l'IA et l'échec de Google+ ?

    Voir aussi

    Google lance une alerte rouge à ses équipes pour le développement d'un concurrent à ChatGPT, l'IA qui menace son moteur de recherches, et les postes des développeurs informatiques humains

    Les employés de Google critiquent le PDG Sundar Pichai pour l'annonce « précipitée et bâclée » de Bard, le concurrent de ChatGPT. Certains ne savaient même pas qu'il allait être présenté

    Google annonce des améliorations de Gemini 1.5 Pro et un nouveau modèle 1.5 Flash, similaire au GPT-4o récemment dévoilé par OpenAI, conçu pour la vitesse et utile pour les conversations en temps réel

  15. #75
    Membre extrêmement actif
    Homme Profil pro
    Développeur informatique
    Inscrit en
    Octobre 2017
    Messages
    2 010
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : Suisse

    Informations professionnelles :
    Activité : Développeur informatique

    Informations forums :
    Inscription : Octobre 2017
    Messages : 2 010
    Points : 6 299
    Points
    6 299
    Par défaut
    Il y a bien longtemps que Google ne privilégie plus les intérêts de ses utilisateurs...

    Cela s'est arrêté le jour où Google est devenu leader sur le marché du moteur de recherche...

    C'est d'ailleurs le principe même de toutes les startup américaines: On commence par offrir des services gratuits ou vendus à perte... Puis lorsque le client est captif, on monte les prix!

    Dernier exemple en date... Netflix! Par exemple, en Suisse, Netflix vient d'augmenter ses tarifs pour la 3ème fois en 3 ans!!!

  16. #76
    Futur Membre du Club
    Profil pro
    Inscrit en
    Mai 2008
    Messages
    3
    Détails du profil
    Informations personnelles :
    Localisation : France

    Informations forums :
    Inscription : Mai 2008
    Messages : 3
    Points : 8
    Points
    8
    Par défaut Suite aux conférences développeurs...
    Suite aux conférences développeurs de Google il y a 2 semaines, et Microsoft la semaine dernière, la différence entre les deux est bien perceptible sur l'IA. Google a fait beaucoup d'annonces surprenantes mais floues, quelques démos de prototypes inaccessibles... A part dans la keynote, Google a finalement très peu parlé d'IA dans les sessions techniques de Google I/O.
    Microsoft a présenté des éléments plus concrets pour l'IA dans le cloud ou en local sur le PC, et des sessions techniques.

  17. #77
    Expert éminent sénior

    Homme Profil pro
    Directeur des systèmes d'information
    Inscrit en
    Avril 2002
    Messages
    2 852
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Âge : 64
    Localisation : Luxembourg

    Informations professionnelles :
    Activité : Directeur des systèmes d'information
    Secteur : Finance

    Informations forums :
    Inscription : Avril 2002
    Messages : 2 852
    Points : 19 320
    Points
    19 320
    Par défaut
    Oui enfin Microsoft ne fait qu'intégrer la solution d'OpenAI à tous ses logiciels c'est tout

  18. #78
    Chroniqueur Actualités
    Avatar de Patrick Ruiz
    Homme Profil pro
    Redacteur web
    Inscrit en
    Février 2017
    Messages
    2 091
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : Cameroun

    Informations professionnelles :
    Activité : Redacteur web
    Secteur : Communication - Médias

    Informations forums :
    Inscription : Février 2017
    Messages : 2 091
    Points : 56 527
    Points
    56 527
    Par défaut L’IA Gemini de Google prise en flagrant délit d’analyse des fichiers PDF hébergés sur Google Drive
    L’IA Gemini de Google prise en flagrant délit d’analyse des fichiers PDF hébergés sur Google Drive, sans permission
    Ravive le débat sur les questions de confidentialité en lien avec la mise en œuvre de l’IA

    Gemini de Google a été pris en flagrant délit d’analyse des fichiers hébergés sur Google Drive. Cela se fait sans le consentement des utilisateurs. Pire, les paramètres de désactivation ne sont pas disponibles. C’est ce qui ressort de certains rapports d’utilisateurs qui ravivent le débat sur les questions de confidentialité en lien avec la mise en œuvre de l’intelligence artificielle.

    « J'ai trouvé le paramètre censé empêcher Gemini d'accéder à mes documents et il était déjà désactivé ! Pourtant, Gemini me donne absolument des résumés de documents. Un réglage qui ne fonctionne pas est encore pire que l'absence de réglage », rapporte Kevin Bankston.

    Nom : 0.png
Affichages : 6905
Taille : 113,0 Ko

    La situation fait suite à un avertissement de Google via une modification de sa politique de confidentialité : « Google utilise les informations pour améliorer ses services et développer de nouveaux produits, ainsi que de nouvelles fonctionnalités et technologies utiles à ses utilisateurs et au public. Par exemple, Google utilise des informations disponibles publiquement pour contribuer à l'entraînement de ses modèles d'intelligence artificielle, et concevoir des produits et des fonctionnalités comme Google Traduction, Bard et les capacités d'IA de Cloud. »

    La situation mise en avant par cet utilisateur des services en ligne de Google n’a donc rien de surprenant surtout qu’elle semble s’être imposée en norme.

    L'usage de paramètres de confidentialité stricts par les parents n'empêche pas les entreprises d'entraîner leurs IA sur les photos d'enfants, d'après un rapport de Human Rights Watch

    Des photos personnelles d'enfants australiens sont utilisées pour créer de puissants outils d'intelligence artificielle (IA) à l'insu et sans le consentement des enfants ou de leurs familles. Ces photos sont récupérées sur le web pour constituer un vaste ensemble de données que les entreprises utilisent ensuite pour entraîner leurs outils d'intelligence artificielle. À leur tour, d'autres utilisent ces outils pour créer des deepfakes malveillants qui mettent encore plus d'enfants en danger d'exploitation et de préjudice.

    « Les enfants ne devraient pas avoir à vivre dans la crainte que leurs photos soient volées et utilisées contre eux », a déclaré Hye Jung Han, chercheuse et avocate spécialisée dans les droits de l'enfant et la technologie à Human Rights Watch. « Le gouvernement australien devrait adopter de toute urgence des lois visant à protéger les données des enfants contre l'utilisation abusive de l'IA. »

    Une analyse réalisée par Human Rights Watch a révélé que LAION-5B, un ensemble de données utilisé pour former les outils d'intelligence artificielle les plus répandus et constitué à partir de la plus grande partie de l'internet, contient des liens vers des photos identifiables d'enfants australiens. Le nom de certains enfants figure dans la légende qui accompagne la photo ou dans l'URL où elle est stockée. Dans de nombreux cas, il est facile de retrouver leur identité, y compris des informations sur le moment et le lieu où l'enfant se trouvait au moment où la photo a été prise.

    L'une de ces photos montre deux garçons âgés de 3 et 4 ans, souriant d'une oreille à l'autre alors qu'ils tiennent des pinceaux devant une fresque murale colorée. La légende qui accompagne la photo indique le nom complet et l'âge des deux enfants, ainsi que le nom de l'école maternelle qu'ils fréquentent à Perth, en Australie occidentale. Il semble qu'il n'existe aucune autre information sur ces enfants sur l'internet.

    Human Rights Watch a trouvé 190 photos d'enfants provenant de tous les États et territoires d'Australie. Il s'agit probablement d'une sous-estimation significative de la quantité de données personnelles d'enfants contenues dans LAION-5B, car Human Rights Watch a examiné moins de 0,0001 % des 5,85 milliards d'images et de légendes contenues dans l'ensemble de données.

    Les photos examinées par Human Rights Watch couvrent l'ensemble de l'enfance. Elles capturent des moments intimes de bébés nés entre les mains gantées de médecins et encore reliés à leur mère par le cordon ombilical ; de jeunes enfants soufflant des bulles ou jouant des instruments dans des écoles maternelles ; des enfants déguisés en leurs personnages préférés pour la Semaine du livre ; et des filles en maillot de bain au carnaval de natation de leur école.

    Les photos montrent également des enfants des Premières nations, notamment ceux identifiés dans les légendes comme appartenant aux peuples Anangu, Arrernte, Pitjantjatjara, Pintupi, Tiwi et Warlpiri. Ces photos montrent des enfants en bas âge dansant sur une chanson dans leur langue indigène, une fille tenant fièrement un lézard goanna des sables par la queue et trois jeunes garçons portant des peintures corporelles traditionnelles et s'entourant les uns les autres.

    Bon nombre de ces photos n'ont été vues que par un petit nombre de personnes et bénéficiaient auparavant d'une certaine confidentialité. Il ne semble pas possible de les retrouver par le biais d'une recherche en ligne. Certaines photos ont été publiées par les enfants ou leur famille sur des blogs personnels et des sites de partage de photos et de vidéos. D'autres photos ont été téléchargées par les écoles ou par des photographes engagés par les familles pour capturer des moments personnels et des portraits. Certaines de ces photos sont impossibles à trouver sur les versions accessibles au public de ces sites web. Certaines ont été téléchargées des années, voire une décennie, avant la création de la LAION-5B.

    Human Rights Watch a constaté que LAION-5B contenait également des photos provenant de sources qui avaient pris des mesures pour protéger la vie privée des enfants. L'une de ces photos est un gros plan de deux garçons faisant de drôles de grimaces, tiré d'une vidéo postée sur YouTube d'adolescents célébrant la semaine des Schoolies après leurs examens de fin d'année. Le créateur de la vidéo a pris des précautions pour protéger la vie privée des personnes figurant dans la vidéo : Ses paramètres de confidentialité sont réglés sur "non listé" et la vidéo n'apparaît pas dans les résultats de recherche de YouTube.

    Les conditions d'utilisation de YouTube interdisent la collecte d'informations susceptibles d'identifier une personne, y compris les images de son visage, sauf dans certaines circonstances. YouTube n'a pas répondu à notre demande de commentaire.

    Une fois que leurs données sont collectées et intégrées dans des systèmes d'IA, ces enfants sont confrontés à d'autres menaces pour leur vie privée en raison des failles de la technologie. Les modèles d'IA, y compris ceux formés sur LAION-5B, sont connus pour la fuite d'informations privées ; ils peuvent reproduire des copies identiques du matériel sur lequel ils ont été formés, y compris des dossiers médicaux et des photos de personnes réelles. Les garde-fous mis en place par certaines entreprises pour empêcher la fuite de données sensibles ont été violés à plusieurs reprises.

    En outre, les modèles d'IA actuels ne peuvent pas oublier les données sur lesquelles ils ont été formés, même si ces données ont été ultérieurement supprimées de l'ensemble des données de formation. Cette perpétuité risque de porter préjudice aux Australiens autochtones en particulier, car de nombreux peuples des Premières nations limitent la reproduction des photos de personnes décédées pendant les périodes de deuil.

    Ces risques pour la vie privée ouvrent la voie à d'autres préjudices, a déclaré Human Rights Watch. L'entraînement sur des photos d'enfants réels permet aux modèles d'IA de créer des clones convaincants de n'importe quel enfant, sur la base d'une poignée de photos ou même d'une seule image. Des acteurs malveillants ont utilisé des outils d'IA entraînés par LAION pour générer des images explicites d'enfants à partir de photos inoffensives, ainsi que des images explicites d'enfants survivants dont les images d'abus sexuels ont été introduites dans LAION-5B.

    De même, la présence d'enfants australiens dans LAION-5B contribue à la capacité des modèles d'IA formés sur cet ensemble de données à produire des images réalistes d'enfants australiens. Cela amplifie considérablement le risque existant pour les enfants que quelqu'un vole leur image sur des photos ou des vidéos d'eux-mêmes publiées en ligne et utilise l'IA pour les manipuler afin qu'ils disent ou fassent des choses qu'ils n'ont jamais dites ni faites.

    En juin 2024, une cinquantaine de jeunes filles de Melbourne ont signalé que des photos de leurs profils de médias sociaux avaient été prises et manipulées à l'aide de l'IA pour créer des deepfakes sexuellement explicites d'elles, qui ont ensuite circulé en ligne.

    Les médias artificiels ont toujours existé, mais leur création nécessitait du temps, des ressources et de l'expertise, et ils étaient largement irréalistes. Les outils d'IA actuels créent des résultats réalistes en quelques secondes, sont souvent gratuits et faciles à utiliser, ce qui risque d'entraîner la prolifération de "deepfakes" non consensuels qui pourraient circuler à nouveau en ligne pour toujours et causer des dommages durables.

    LAION, l'organisation allemande à but non lucratif qui gère LAION-5B, a confirmé le 1er juin que l'ensemble de données contenait les photos personnelles des enfants trouvées par Human Rights Watch, et s'est engagée à les supprimer. Elle a contesté le fait que les modèles d'intelligence artificielle formés sur LAION-5B puissent reproduire mot pour mot des données personnelles. LAION a également déclaré qu'il incombait aux enfants et à leurs tuteurs de retirer les photos personnelles des enfants de l'internet, ce qui, selon elle, constitue la protection la plus efficace contre les utilisations abusives.

    Mark Dreyfus, procureur général d'Australie, a récemment présenté au parlement un projet de loi interdisant la création ou le partage non consensuel de deepfakes sexuellement explicites d'adultes, en précisant que de telles images d'enfants continueraient d'être traitées comme du matériel de maltraitance d'enfants en vertu du code pénal. Cependant, Human Rights Watch a déclaré que cette approche ne tient pas compte du problème plus profond, à savoir que les données personnelles des enfants ne sont pas protégées contre les utilisations abusives, y compris la manipulation non consensuelle de l'image d'enfants réels dans n'importe quel type de deepfake.

    Nom : 1.png
Affichages : 1564
Taille : 401,5 Ko

    Certains dirigeants d’entreprise sont d’avis qu'il est tout à fait acceptable de voler du contenu s'il se trouve sur le web ouvert, ce qui constitue une explication de l’actuel tableau

    Mustafa Suleyman est d’avis que dès que l'on publie quelque chose sur le web, cela devient un "freeware" que tout le monde peut copier et utiliser librement. Ce positionnement est néanmoins en contradiction avec la suppression par OpenAI de jeux de données utilisés pour entraîner GPT-3. La décision laissait ainsi entendre que l’entraînement des modèles d’IA tel qu’effectué en l’état se fait en violation des lois sur le copyright contrairement à ce que semble laisser entendre le patron de l’intelligence artificielle chez Microsoft.

    Des documents récemment dévoilés dans le cadre d’un recours collectif contre OpenAI révèlent que la startup a supprimé deux énormes ensembles de données, appelés "books1" et "books2", qui avaient été utilisés pour entraîner son modèle d'intelligence artificielle GPT-3. Les avocats de la firme Authors Guild ont déclaré dans les documents déposés au tribunal que les ensembles de données contenaient probablement plus de 100 000 livres publiés et qu'ils étaient au cœur des allégations selon lesquelles OpenAI avait utilisé des documents protégés par le droit d'auteur pour entraîner des modèles d'intelligence artificielle.

    Pendant des mois, la firme Authors Guild a cherché à obtenir des informations sur ces données auprès d'OpenAI. L'entreprise a d'abord résisté, invoquant des problèmes de confidentialité, avant de révéler qu'elle avait supprimé toutes les copies des données, selon les documents juridiques examinés par certains médias

    Dans un livre blanc publié en 2020, OpenAI a décrit les ensembles de données books1 et books2 comme des "corpus de livres basés sur Internet" et a indiqué qu'ils représentaient 16 % des données d'entraînement utilisées pour créer le GPT-3. Le livre blanc indique également que "books1" et "books2" contiennent ensemble 67 milliards de tokens de données, soit à peu près l'équivalent de 50 milliards de mots. À titre de comparaison, la Bible du roi Jacques contient 783 137 mots.

    La lettre non scellée des avocats d'OpenAI, qui porte la mention « hautement confidentiel - réservé aux avocats », indique que l'utilisation de books1 et books2 pour l'entraînement des modèles a cessé à la fin de 2021 et que les ensembles de données ont été supprimés à la mi-2022 en raison de leur non-utilisation. La lettre poursuit en indiquant qu'aucune des autres données utilisées pour entraîner le GPT-3 n'a été supprimée et offre aux avocats de la Guilde des auteurs l'accès à ces autres ensembles de données.

    Les documents non scellés révèlent également que les deux chercheurs qui ont créé books1 et books2 ne sont plus employés par OpenAI. OpenAI a d'abord refusé de révéler l'identité des deux employés.

    La startup a depuis identifié les employés auprès des avocats de la firme Authors Guild, mais n'a pas révélé publiquement leurs noms. OpenAI a demandé au tribunal de garder sous scellés les noms des deux employés, ainsi que les informations sur les ensembles de données. Authors Guild s'y est opposée, arguant du droit du public à être informé. Le litige est en cours.

    « Les modèles qui alimentent ChatGPT et notre API aujourd'hui n'ont pas été développés à partir de ces ensembles de données », a déclaré OpenAI dans un communiqué mardi. « Ces jeux de données, créés par d'anciens employés qui ne font plus partie d'OpenAI, ont été utilisés pour la dernière fois en 2021 et supprimés pour cause de non-utilisation en 2022. »

    Les lois en vigueur en UE empêchent les géants technologiques de siphonner les données des internautes à leur guise mais certains acteurs estiment qu’elles sont susceptibles de constituer un frein à l’innovation

    Meta a interrompu son projet d’entraînement de ses systèmes d'intelligence artificielle en utilisant les données de ses utilisateurs dans l'Union européenne et au Royaume-Uni. Cette décision fait suite au refus de la Commission irlandaise de protection des données (DPC), le principal régulateur de Meta dans l'UE, qui agit au nom de plusieurs autorités de protection des données dans l'ensemble de l'Union.

    Seulement certains intervenants sont d’avis que l’application de ces lois constitue un frein à l’innovation qui mettra l’Europe en retard sur les USA et la Chine.

    « Autre axe, c'est évidemment l'intelligence artificielle. Là-dessus, point n'est besoin d'y revenir, j'en ai beaucoup parlé il y a encore quelques jours. On a une révolution en cours. Mais au fond, sur ce sujet, on a eu une étrange semaine. On a eu à la fois Mistral qui a levé des financements record dans le secteur, près de 400 millions d'euros. Chapeau, bravo ! Vous pouvez les applaudir. C'est vraiment le génie français comme on aime à le voir et à le célébrer. Et on a eu une réglementation européenne qui est venue consolider, c'est une bonne chose, un modèle français de la régulation mais qui, à mes yeux, je vous parle en toute franchise, fait qu'on est le premier endroit au monde où sur les modèles dits fondationnels d'IA, on va beaucoup plus réguler que les autres.

    Moi, je pense que ce n'est pas une bonne idée et je le dis en toute honnêteté. Il faudra donc l'évaluer parce qu’aujourd'hui, quand je regarde, la France est sans doute le premier pays en termes d'intelligence artificielle en Europe continentale, on est au coude à coude avec les Britanniques. Mais eux n'auront pas cette régulation sur les modèles fondationnels et surtout, on est tous très loin des Chinois et des Américains. Alors on peut décider de réguler beaucoup plus vite et beaucoup plus fort que nos grands compétiteurs mais on régulera des choses qu'on ne produira plus ou qu'on n’inventera pas. Ce n'est jamais une bonne idée. Il faut donc qu'on soit toujours à la bonne vitesse et en tout cas au bon rythme. Donc moi, je demande à ce qu'on évalue de manière régulière cette réglementation et si on perd des leaders ou des pionniers à cause de ça, il faudra revenir. C'est clé », estime le président français.


    C’est une position similaire à celle du co-fondateur et PDG de Limit à propos de l’AI Act : « Il s’agit de la pire réglementation : large, radicale, tout le monde est techniquement en infraction d’une manière ou d’une autre, mais vous pouvez payer pour la combattre. Les entrepreneurs obéissants et respectueux des règles perdront tout leur temps et leur argent à essayer de se conformer à chaque paragraphe de la loi sur l’IA. De plus en plus d’entrepreneurs soucieux de la Realpolitik placeront leur entreprise dans une zone grise, supposeront que s’ils réussissent, ils seront un jour poursuivis en justice et économiseront des fonds pour cette éventualité.

    Et s’ils sont poursuivis, quelles sont les sanctions ? Jusqu'à 7% du chiffre d'affaires annuel mondial. C'est une farce. Si l’UE affirme que cette technologie est si dangereuse qu’elle nécessite une réglementation à l’échelle européenne, alors les sanctions devraient en réalité être beaucoup plus lourdes. S’il y a un mauvais acteur qui dirige une entreprise d’IA massivement abusive et que la plus grande menace à laquelle il est confronté est une pénalité de revenus de 7 % qu’il peut probablement réduire à 2 % après quelques années de litige, alors cela n’a aucun effet dissuasif ! Ces entreprises fonctionnent avec une marge brute de 75 %. Vous avez une année qui tourne à 73% ? Cela n’a pas d’importance.

    Cela place la loi sur l’IA dans une situation intermédiaire lamentable en matière de réglementation : suffisamment ennuyeuse pour dissuader les entrepreneurs légitimes, suffisamment édentée pour ne pas empêcher des abus à grande échelle. Je suis choqué que la loi sur l’IA ne prévoie aucune possibilité d’interdire quelque chose qui serait réellement dangereux, comme une machine de propagande optimisée par l’IA et financée par l’État, se faisant passer pour un réseau social. S’ils ne peuvent pas interdire des produits, alors il ne s’agit pas de protection des consommateurs : il s’agit simplement d’extraction de richesses. »

    Source : rapports d’utilisateurs

    Et vous ?

    Quelle est la priorité la plus importante pour vous en tant qu’utilisateur ? Préférez-vous que les entreprises protègent davantage vos données personnelles ou qu’elles rendent leurs produits plus interopérables avec d’autres services ?
    Pensez-vous que les réglementations telles que le Digital Markets Act (DMA) sont nécessaires pour encadrer les géants de la technologie ? Ou devrions-nous laisser les entreprises décider elles-mêmes de leurs politiques de déploiement de nouvelles technologies ?
    Comment pensez-vous que ces restrictions affecteront l’innovation dans le domaine de l’intelligence artificielle ? Est-ce que cela freinera ou encouragera de nouvelles avancées technologiques ?

    Voir aussi :

    Les États-Unis s'attaquent aux lacunes dans les restrictions sur les exportations de puces d'IA vers la Chine et prévoient d'introduire de nouvelles lignes directrices de restrictions

    Les États-Unis veulent entraver l'industrie chinoise des puces électroniques en adoptant de nouvelles règles d'exportation radicales, mais la Chine dénonce ces règles et exige qu'elles soient levées

    Les États-Unis étendent les restrictions à l'exportation de puces d'IA aux pays du Moyen-Orient

  19. #79
    Membre expert
    Homme Profil pro
    Étudiant
    Inscrit en
    Novembre 2021
    Messages
    1 206
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : France, Drôme (Rhône Alpes)

    Informations professionnelles :
    Activité : Étudiant

    Informations forums :
    Inscription : Novembre 2021
    Messages : 1 206
    Points : 3 285
    Points
    3 285
    Par défaut
    Comment pensez-vous que ces restrictions affecteront l’innovation dans le domaine de l’intelligence artificielle ? Est-ce que cela freinera ou encouragera de nouvelles avancées technologiques ?
    Plus qu'un problème d'IA, on a affaire ici à un problème présent chez Google depuis deux décennies : Le mépris complet de Google pour la vie privée, droit pourtant fondamental dans le respect de la dignité humaine.
    Un fichier hébergé sur Google Drive est la plupart du temps un fichier privé, on ne parle pas de fichiers publiés sur le web.

    Cette situation est dans la droite ligné de ceci : https://grisebouille.net/google-lesp...-con-du-monde/

    A ce niveau, Google Drive (même si c'est malheureusement loin d'être le seul) devrait être considéré comme un service piégé qui abuse de la confiance de victimes trop crédules. Le réglage qui ne fonctionne pas est carrément une stratégie digne des cybercriminel.

  20. #80
    Membre expert
    Homme Profil pro
    Étudiant
    Inscrit en
    Novembre 2021
    Messages
    1 206
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : France, Drôme (Rhône Alpes)

    Informations professionnelles :
    Activité : Étudiant

    Informations forums :
    Inscription : Novembre 2021
    Messages : 1 206
    Points : 3 285
    Points
    3 285
    Par défaut
    Ces risques pour la vie privée ouvrent la voie à d'autres préjudices, a déclaré Human Rights Watch. L'entraînement sur des photos d'enfants réels permet aux modèles d'IA de créer des clones convaincants de n'importe quel enfant, sur la base d'une poignée de photos ou même d'une seule image. Des acteurs malveillants ont utilisé des outils d'IA entraînés par LAION pour générer des images explicites d'enfants à partir de photos inoffensives, ainsi que des images explicites d'enfants survivants dont les images d'abus sexuels ont été introduites dans LAION-5B.
    Par contre je comprend peut-être mal cette phrase, mais je ne voit pas en quoi le risque pour la vie privé décrit plus haut (la collecte abusive de certaines données) entraînerai d'autres risque par effet domino. En effet, rien n'interdit aux modèles de s’entraîner sur des photos d'enfant disponibles publiquement, le résultat sera exactement le même. A moins de demander aux modèles de ne plus collecter de photo d'enfant (donc de tronquer une part importante de la réalité, ce qui va à l'encontre la fonction première) ou de devenir bête en ne reproduisant plus que des images de manière littéral, sans rien mélanger. Hors il est évident que l'on se dirige vers l'inverse, à savoir une amélioration constante des modèles, ou il sera de plus en plus difficile de discerner les images d'origine.
    On semble se diriger vers une nouvelle révolution de l'image, et donc probablement vers la faillite d'une grosse parti de la société consumériste (car la sacralisation des images et un des fondements du consumérisme), et les états/organisations vont devoir s'habituer.

    Par contre, il devient très urgent de faire en sorte que n'importe qui souhaitant que son image ou l'image de son enfant ne serve pas pour entraîner des modèles, puisse avoir gain de cause.

Discussions similaires

  1. appliquer une condition pour extraire une valeur de tags
    Par K2carca dans le forum Format d'échange (XML, JSON...)
    Réponses: 12
    Dernier message: 05/09/2020, 21h28
  2. Calculs sur une colonne pour extraire trois valeurs
    Par sp2308 dans le forum SQLite
    Réponses: 2
    Dernier message: 27/03/2014, 13h47
  3. Réponses: 1
    Dernier message: 04/01/2013, 22h13
  4. Choix d'une méthode pour extraire des données web
    Par Serphone dans le forum Général Conception Web
    Réponses: 6
    Dernier message: 26/06/2012, 11h25
  5. Servlet qui permet de récupérer des informations relatives à une application
    Par L'aigle de Carthage dans le forum Servlets/JSP
    Réponses: 5
    Dernier message: 21/06/2011, 13h19

Partager

Partager
  • Envoyer la discussion sur Viadeo
  • Envoyer la discussion sur Twitter
  • Envoyer la discussion sur Google
  • Envoyer la discussion sur Facebook
  • Envoyer la discussion sur Digg
  • Envoyer la discussion sur Delicious
  • Envoyer la discussion sur MySpace
  • Envoyer la discussion sur Yahoo