IdentifiantMot de passe
Loading...
Mot de passe oublié ?Je m'inscris ! (gratuit)
Navigation

Inscrivez-vous gratuitement
pour pouvoir participer, suivre les réponses en temps réel, voter pour les messages, poser vos propres questions et recevoir la newsletter

Intelligence artificielle Discussion :

Microsoft accusée de déguiser son moteur de recherche Bing en Google pour tromper les internautes inattentifs


Sujet :

Intelligence artificielle

  1. #81
    Chroniqueur Actualités

    Homme Profil pro
    Administrateur de base de données
    Inscrit en
    Mars 2013
    Messages
    9 135
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : Canada

    Informations professionnelles :
    Activité : Administrateur de base de données

    Informations forums :
    Inscription : Mars 2013
    Messages : 9 135
    Points : 210 592
    Points
    210 592
    Par défaut Microsoft Copilot peut désormais lire ce qui est affiché sur votre écran pour vous donner des réponses
    Microsoft Copilot peut désormais lire ce qui est affiché sur votre écran pour vous donner des réponses contextuelles,
    vous parler à voix haute et résoudre des problèmes complexes

    Une semaine après avoir annoncé une vague de mises à jour pour sa suite de produits d'entreprise Copilot alimentés par l'IA, Microsoft lance de nouvelles fonctionnalités Copilot sur Windows pour tous les utilisateurs, y compris un outil qui peut comprendre et répondre à des questions sur ce qui est affiché à l'écran.

    Les nouvelles applications Copilot pour iOS, Android, Windows et le web sont désormais disponibles et présentent toutes un Copilot au style plus « chaleureux » et « distinct », comme le décrit Microsoft. Microsoft intègre également le chatbot à WhatsApp, permettant aux utilisateurs de discuter avec Copilot par messagerie privée, comme ils le font déjà avec d'autres bots sur la plateforme de messagerie de Meta.


    « Notre nouveau Copilot se veut plus intuitif et propose des réponses plus digestes, plus rapides et plus fluides. Il s'adapte désormais à vous avec un ton chaleureux et un style distinct, vous fournissant non seulement des informations mais aussi des encouragements, des commentaires et des conseils pour vous aider à relever les défis quotidiens de la vie, qu'ils soient petits ou grands. Par exemple, en plus de vous aider à planifier ce grand voyage, il peut également vous donner des conseils sur la manière de garder votre sang-froid lorsque, par exemple, le dossier de votre siège reçoit des coups de pied d'un enfant en bas âge.

    « Nous ajoutons des fonctionnalités avancées, telles que la voix et la vision, qui le rendent à la fois plus utile et plus naturel. Ces modalités changent la façon dont nous nous connectons à la technologie, permettant aux gens de réfléchir, d'apprendre et de travailler en toute transparence avec leurs compagnons Copilot ».


    Lecture de l’écran et analyse contextuelle avec Copilot Vision

    Copilot Vision a une vision de ce que vous regardez sur votre PC (plus précisément, une vision des sites que vous visitez avec Microsoft Edge). Relié à Copilot Labs, un nouveau programme d'opt-in exclusif à Copilot Pro pour les fonctionnalités expérimentales de Copilot, Copilot Vision peut analyser le texte et les images des pages web et répondre à des questions (par exemple, « Quelle est la recette du plat sur cette image ? ») à leur sujet.

    Vision, que l'on peut obtenir en tapant « @copilot » dans la barre d'adresse d'Edge, n'est pas exactement une merveille technique. Google propose une technologie de recherche similaire sur Android et a récemment intégré des éléments de cette technologie dans Chrome.

    Mais Microsoft laisse entendre que Copilot Vision est plus puissant et plus respectueux de la vie privée que les précédentes fonctions d'analyse d'écran.

    Copilot peut « comprend la page web que vous consultez, qu'il s'agisse de texte ou d'images, et peut répondre à des questions sur son contenu, suggérer les prochaines étapes et vous aider sans perturber votre flux de travail. Imaginez que vous essayez de meubler un nouvel appartement, Copilot Vision peut vous aider à rechercher des meubles, à trouver la bonne palette de couleurs, à réfléchir aux options qui s'offrent à vous, des tapis aux jetés, et même à vous suggérer des façons d'agencer ce que vous regardez ».

    Autre exemple : si vous regardez une recette en ligne, Copilot peut vous fournir des informations supplémentaires sur les ingrédients ou même suggérer des variantes de la recette.

    Sans doute désireux d'éviter une nouvelle vague de mauvaise presse liée aux erreurs de confidentialité de l'IA, Microsoft insiste sur le fait que Copilot Vision a été conçu pour supprimer les données immédiatement après les conversations. Les données audio, les images ou le texte traités ne sont pas stockés ou utilisés pour former des modèles, affirme l'entreprise - du moins pas dans cette version de prévisualisation.


    Copilot Vision est également limité dans les types de sites web qu'il peut interpréter. Pour l'instant, Microsoft empêche la fonctionnalité de fonctionner sur les contenus payants et « sensibles », limitant Vision à une liste préapprouvée de propriétés web « populaires ».

    Qu'entend-on exactement par contenu « sensible » ? Du porno ? De la violence ? À ce stade, Microsoft n'a pas voulu le dire.

    Les accusations de contournement des paywalls à l'aide d'outils d'intelligence artificielle ont récemment valu à Microsoft de se retrouver dans une situation juridique délicate. Dans une action en justice en cours, le New York Times allègue que Microsoft a permis aux utilisateurs de contourner son paywall en diffusant des articles du quotidien par l'intermédiaire du chatbot Copilot sur Bing. Lorsqu'il était sollicité d'une certaine manière, Copilot (qui s'appuie sur les modèles d'OpenAI, un proche collaborateur de Microsoft) donnait des extraits textuels (ou presque) d'articles payants, selon le Times.

    Microsoft a déclaré que Copilot Vision, qui n'est pour l'instant disponible qu'aux États-Unis, respectera les « contrôles de l'IA lisibles par les machines » des sites, comme les règles interdisant aux robots de récupérer des données pour l'entraînement à l'IA. Mais l'entreprise n'a pas précisé quels contrôles Vision respectera, car il en existe plusieurs.

    De plus, de nombreux grands éditeurs ont choisi d'empêcher les outils d'IA de parcourir leurs sites web, non seulement par crainte que leurs données ne soient utilisées sans autorisation, mais aussi pour éviter que ces outils ne fassent grimper en flèche les coûts de leurs serveurs. Si la tendance actuelle se confirme, Copilot Vision pourrait ne pas fonctionner sur certains des principaux sites d'information du web.

    Microsoft a déclaré qu'elle s'engageait à « prendre en compte les réactions » pour apaiser les inquiétudes.

    Citation Envoyé par Microsoft
    La sécurité est notre priorité absolue :
    • Les sessions de Copilot Vision sont entièrement facultatives et éphémères. Aucun des contenus auxquels Copilot Vision participe n'est stocké ou utilisé pour la formation - dès que vous mettez fin à votre session, les données sont définitivement supprimées.
    • L'expérience ne fonctionnera pas sur tous les sites web, car nous avons pris des mesures importantes pour limiter les types de sites web avec lesquels Copilot Vision peut communiquer. Nous commençons par une liste limitée de sites web populaires pour nous assurer que l'expérience est sûre pour tout le monde.
    • Copilot Vision ne travaillera pas sur des contenus sensibles ou protégés par un paywall pour cette préversion. Nous l'avons créé en gardant à l'esprit les intérêts des utilisateurs et des créateurs.
    • Il n'y a pas de traitement spécifique du contenu d'un site web sur lequel vous naviguez, ni d'entraînement à l'IA. Copilot Vision se contente de lire et d'interpréter les images et le texte qu'il voit sur la page pour la première fois, en même temps que vous.
    • Avant de procéder à un lancement à grande échelle, nous continuerons à recueillir les commentaires des premiers utilisateurs de Copilot Labs, à affiner nos mesures de sécurité et à placer la protection de la vie privée et la responsabilité au centre de toutes nos activités. N'hésitez pas à nous faire part de vos commentaires !
    Nom : copilot.png
Affichages : 7007
Taille : 43,1 Ko

    La fonctionnalité Think Deeper et le raisonnement avancé

    Comme pour Vision, la nouvelle fonction Think Deeper de Copilot vise à rendre l'assistant de Microsoft plus polyvalent.

    Think Deeper permet à Copilot de résoudre des problèmes plus complexes, selon Microsoft, grâce à des « modèles de raisonnement » qui prennent plus de temps avant de fournir des réponses étape par étape. Quels modèles de raisonnement ? Microsoft est resté un peu flou, se contentant de dire que Think Deeper utilise « les derniers modèles d'OpenAI, peaufinés par Microsoft ». En lisant entre les lignes, il y a fort à parier qu'il s'agit d'une version personnalisée du modèle o1 d'OpenAI.

    Cette fonctionnalité permet à l’assistant de fournir des réponses plus nuancées et réfléchies, allant au-delà des simples recherches d’informations. Par exemple, vous voulez planifier un projet complexe : Copilot peut vous aider à penser à travers les différentes étapes, suggérer des ressources et même anticiper des obstacles potentiels.

    « Copilot peut désormais raisonner sur des questions plus complexes. Think Deeper prend plus de temps avant de répondre, ce qui permet à Copilot de fournir des réponses détaillées et étape par étape à des questions difficiles. Nous l'avons conçu pour répondre à toutes sortes de défis pratiques et quotidiens, comme comparer deux options complexes côte à côte. Dois-je déménager dans telle ou telle ville ? Quel type de voiture correspond le mieux à mes besoins ? Et ainsi de suite. Il s'agit d'une compétence Copilot précoce qui est encore en cours de développement. Nous l'avons donc placée dans notre laboratoire expérimental Copilot Labs afin de la tester et d'obtenir des commentaires ».

    Microsoft a beaucoup parlé du potentiel de Think Deeper dans ses documents de presse. Mais en supposant que le modèle sous-jacent soit o1, il ne sera certainement pas à la hauteur dans certains domaines. Il sera intéressant de voir quels types d'améliorations Microsoft a apportés au modèle de base et dans quelle mesure Think Deeper peut communiquer à propos de ses limites.

    Think Deeper est disponible pour un nombre limité d'utilisateurs de Copilot Labs en Australie, au Canada, en Nouvelle-Zélande, aux États-Unis et au Royaume-Uni.

    Interaction vocale et synthèse de la parole

    Copilot Voice (à ne pas confondre avec Copilot Voice de GitHub) est une nouvelle fonctionnalité de Copilot qui est généralement disponible. Lancée en anglais en Nouvelle-Zélande, au Canada, en Australie, au Royaume-Uni et aux États-Unis pour commencer, Voice ajoute quatre voix synthétiques qui vous permettent de parler à Copilot et d'entendre ses réponses à voix haute.

    À l'instar du mode vocal avancé d'OpenAI pour ChatGPT, Copilot Voice peut interpréter le ton que vous employez au cours de la conversation et répondre en conséquence. Un porte-parole de Microsoft a expliqué que le mode utilise « la dernière technologie vocale avec de nouveaux modèles qui ont été affinés pour l'application Copilot ». Quelle technologie ? Quels modèles ? On ne peut pas dire que Microsoft est généreux pour ce qui concerne les détails.

    Une chose à savoir : Copilot Voice a une limite d'utilisation basée sur la durée. Les abonnés à Copilot Pro bénéficient de plus de minutes, mais ce nombre est « variable » en fonction de la demande, explique Microsoft.

    « Nous rendons plus facile que jamais la connexion avec votre compagnon grâce à Copilot Voice. C'est le moyen le plus intuitif et le plus naturel de faire du brainstorming en déplacement, de poser une question rapide ou même de se défouler à la fin d'une journée difficile. Votre compagnon vous sera personnel, avec quatre options vocales au choix ».


    Analyse critique des nouvelles fonctionnalités de Microsoft Copilot

    Bien que les nouvelles capacités de Microsoft Copilot soient impressionnantes, elles soulèvent également plusieurs questions et préoccupations.

    Problèmes de confidentialité et de sécurité

    L’une des principales préoccupations concerne la confidentialité des données. La capacité de Copilot à lire et analyser le contenu de votre écran pourrait potentiellement exposer des informations sensibles. Bien que Microsoft affirme que les données sont immédiatement supprimées après utilisation et ne sont pas utilisées pour entraîner les modèles, il reste une certaine méfiance quant à la manière dont ces données sont réellement gérées. Les utilisateurs doivent pouvoir faire confiance à l’outil pour protéger leurs informations personnelles et professionnelles.

    Dépendance technologique

    La fonction de réflexion profonde de Copilot, bien qu’utile, pourrait encourager une dépendance excessive à la technologie pour la prise de décision. Si les utilisateurs commencent à s’appuyer trop fortement sur Copilot pour résoudre des problèmes complexes, cela pourrait diminuer leur capacité à penser de manière critique et indépendante. Il est essentiel de trouver un équilibre entre l’utilisation de l’IA comme outil d’assistance et le maintien de nos propres compétences analytiques.

    Accessibilité et équité

    L’intégration de la synthèse vocale et de l’entrée vocale est une avancée significative, mais elle n’est actuellement disponible que dans certains pays anglophones. Cette limitation géographique soulève des questions d’équité et d’accessibilité. Pour que Copilot soit véritablement inclusif, Microsoft devra étendre ces fonctionnalités à d’autres langues et régions, garantissant ainsi que tous les utilisateurs puissent bénéficier de ces innovations.

    Risques de surinformation

    Avec la capacité de Copilot à fournir des informations en temps réel, il existe un risque de surinformation. Les utilisateurs pourraient être submergés par une quantité excessive de données, rendant difficile la distinction entre les informations pertinentes et les distractions. Il est crucial que Copilot soit capable de filtrer et de prioriser les informations de manière efficace pour éviter ce problème.

    Source : Microsoft

    Et vous ?

    Comment pensez-vous que Microsoft pourrait améliorer la gestion de la confidentialité des données avec Copilot ?
    Voyez-vous des domaines spécifiques où la réflexion profonde de Copilot pourrait être particulièrement bénéfique ou problématique ?
    Quels sont les défis potentiels que vous anticipez avec l’utilisation de la synthèse vocale dans des environnements professionnels ?
    Comment évalueriez-vous l’équilibre entre l’assistance technologique et la préservation des compétences humaines dans la prise de décision ?
    Quels types de filtres ou de priorités aimeriez-vous voir intégrés dans Copilot pour éviter la surinformation ?
    Pensez-vous que l’extension des fonctionnalités de Copilot à d’autres langues et régions est une priorité ? Pourquoi ou pourquoi pas ?
    Quels autres aspects de l’interaction homme-machine aimeriez-vous voir explorés par Microsoft dans les futures mises à jour de Copilot ?

  2. #82
    Membre éclairé
    Homme Profil pro
    autre
    Inscrit en
    Juin 2014
    Messages
    207
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : France, Aveyron (Midi Pyrénées)

    Informations professionnelles :
    Activité : autre

    Informations forums :
    Inscription : Juin 2014
    Messages : 207
    Points : 691
    Points
    691
    Par défaut
    Hé bien, des démos techniques de plus en plus... Nazes ? Inutiles ? Débiles ? Je sais même plus quel mot choisir.
    Depuis un bon moment j'ai l'impression que tous mes commentaires vont dans le même sens. Et encore, vous avez de la chance, 9 fois sur 10 je me retiens d'écrire vu que mon message est aussi inutile que la technologie présentée.


    Sérieusement, à part une personne handicapée, qui peut bien avoir besoin d'un logiciel qui commente/lise ce qui se trouve sur l'écran de l'ordinateur qu'il est en train d'utiliser ?

  3. #83
    Membre éclairé
    Profil pro
    maçon
    Inscrit en
    Novembre 2004
    Messages
    278
    Détails du profil
    Informations personnelles :
    Localisation : France, Haute Loire (Auvergne)

    Informations professionnelles :
    Activité : maçon

    Informations forums :
    Inscription : Novembre 2004
    Messages : 278
    Points : 741
    Points
    741
    Par défaut
    Dépendance technologique

    La fonction de réflexion profonde de Copilot, bien qu’utile, pourrait encourager une dépendance excessive à la technologie pour la prise de décision. Si les utilisateurs commencent à s’appuyer trop fortement sur Copilot pour résoudre des problèmes complexes, cela pourrait diminuer leur capacité à penser de manière critique et indépendante. Il est essentiel de trouver un équilibre entre l’utilisation de l’IA comme outil d’assistance et le maintien de nos propres compétences analytiques.
    C'est le but premier , et rechercher, des GAFAM d'abêtir les masses pour mieux les manipuler et les rendre totalement dépendant de leurs services .

  4. #84
    Membre habitué
    Homme Profil pro
    Conseil - Consultant en systèmes d'information
    Inscrit en
    Juin 2023
    Messages
    53
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : Grèce

    Informations professionnelles :
    Activité : Conseil - Consultant en systèmes d'information
    Secteur : High Tech - Produits et services télécom et Internet

    Informations forums :
    Inscription : Juin 2023
    Messages : 53
    Points : 196
    Points
    196
    Par défaut
    Citation Envoyé par _toma_ Voir le message
    Sérieusement, à part une personne handicapée, qui peut bien avoir besoin d'un logiciel qui commente/lise ce qui se trouve sur l'écran de l'ordinateur qu'il est en train d'utiliser ?
    Une personne qui n'a pas d'amis, par exemple ? ça me rappelle que j'ai lu qu'un gars avait fait un réseau social de bots où tu peux choisir le ton que les bots vont employer pour répondre à tes messages... quand je pense que certains applaudissent cette énorme connerie. Déjà qu'il y a les Woke, on nous rajoute leurs cousins les bots

  5. #85
    Membre chevronné
    Profil pro
    MOA
    Inscrit en
    Décembre 2002
    Messages
    1 149
    Détails du profil
    Informations personnelles :
    Localisation : France, Eure et Loir (Centre)

    Informations professionnelles :
    Activité : MOA

    Informations forums :
    Inscription : Décembre 2002
    Messages : 1 149
    Points : 2 163
    Points
    2 163
    Par défaut
    Sur le plan technique, c'est absolument impressionnant ce qu'il arrive à faire. Après il ne faut pas oublier que Microsoft 3 plus grandes capitalisation boursière, elle a énormément de ressource financière. Il est donc assez facile de recruter et de mettre des poles d'excellence. Et malheureusement la concurrence peut difficilement suivre.

    Cette prouesse technique est assez incroyable, elle créé un véritable assistant pour nous aider sur plein de chose, dont on l'habitude de faire nous même. Par exemple, il s'occuperait de faire les comparatifs, ... Microsoft essaie de créer un nouveau besoin pour ensuite le rendre indispensable auprès des utilisateurs, au point de créer une certaine indépendance à son produit. Est ce que les gens vont aller jusque là ?

    En terme de vie privée, peut importe ce qu'ils font. Je suis contre de mettre tous mes oeufs dans le même panier, de faire appel à un unique prestataire pour tout. Si on veut de la vie privée, il faut se pencher sur les IA locaux. Microsoft a tout intéret plein d'information sur nous pour entrainer son IA, sous le prextexe pour améliorer son expérience utilisateur.


    Je n'adhère pas du tout mais je trouve qu'il est intéressant de comprendre la stratégie des GAFAM. Et celle de Microsoft, je la comprends. Microsoft dépensent des millions de $$ dans l'IA et donc essaie de trouver des nouveaux usages

  6. #86
    Chroniqueur Actualités
    Avatar de Anthony
    Homme Profil pro
    Rédacteur technique
    Inscrit en
    Novembre 2022
    Messages
    1 343
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : France, Gironde (Aquitaine)

    Informations professionnelles :
    Activité : Rédacteur technique

    Informations forums :
    Inscription : Novembre 2022
    Messages : 1 343
    Points : 22 069
    Points
    22 069
    Par défaut Microsoft envisage de permettre aux entreprises de créer leurs propres employés virtuels alimentés par l'IA
    Microsoft prévoit de permettre aux entreprises de créer leurs propres employés virtuels alimentés par l'IA, alors que la prochaine version de Copilot intégrera des agents autonomes

    Microsoft travaille sur une fonction Copilot à l'échelle de l'entreprise qui permettrait aux sociétés de créer leurs propres employés virtuels IA. En pratique, cela signifie que les entreprises pourraient créer leurs propres chatbots IA pour interagir avec les clients ou des employés internes pour gérer les tâches internes, en veillant à ce que le ton et le comportement de l'agent soient conformes aux directives et aux préférences de l'entreprise.

    Ce projet intervient après que Microsoft ait lancé au début du mois d'octobre 2024 de nouvelles fonctionnalités Copilot sur Windows, y compris un outil qui permet à Microsoft Copilot de lire ce qui est affiché sur l'écran d'un utilisateur pour lui fournir des réponses contextuelles, de parler à haute voix et de résoudre des problèmes complexes.

    Le projet, intitulé Microsoft Copilot Studio, est la prochaine étape de l'IA au travail. Une version bêta fermée a été lancée au début de l'année et une phase de test publique est prévue pour le mois de novembre 2024.


    Les types de tâches que les employés IA, appelés agents par Microsoft, peuvent effectuer sont généralement des tâches administratives, telles que répondre aux demandes des clients via un chatbot, générer ou résoudre des tickets d'assistance informatique, et répondre à des courriels en utilisant des templates prédéfinis.

    Le fait que Microsoft parle d'agents et d'« employés virtuels » joue sur les craintes existantes des gens à l'égard de l'IA, à savoir que l'IA pourrait voler des emplois humains. Le géant de la technologie s'est donc empressé de souligner que les agents Copilot ne peuvent qu'automatiser des tâches répétitives et souvent fastidieuses. L'idée est que cela libère du temps humain pour des rôles plus créatifs et à plus haute responsabilité.

    Comment fonctionne Copilot Studio ?

    Les entreprises n'ont pas besoin d'avoir des connaissances techniques approfondies pour travailler avec Copilot Studio, l'application utilisant un format low-code. L'interface, essentiellement graphique, requiert des connaissances limitées en matière de programmation et Microsoft fournit des agents prédéfinis que les clients peuvent utiliser pour créer leurs propres agents ou pour commencer à travailler immédiatement.


    Parmi les agents prédéfinis, on retrouve un agent de qualification des ventes (axé sur la prospection des clients), un agent de communication avec les fournisseurs (destiné à optimiser les chaînes d'approvisionnement) et un agent d'intention des clients (qui aide les employés du service clientèle à rédiger des articles générés automatiquement). Cela donne une idée des utilisations prévues pour les entreprises qui mettent en œuvre Copilot Studio.

    Microsoft n'a pas donné de calendrier précis pour la mise à disposition de Copilot Studio au grand public, mais les phases de test progressant, cela pourrait se faire dès l'année 2025.

    Alors que Microsoft s’attelle à travers ce nouveau projet au développement de la prochaine itération de l'IA au travail, son assistant Copilot n'est pas épargné par la critique. En effet, le PDG de Salesforce, Marc Benioff, a récemment déclaré dans un billet publié sur X que l'assistant IA Copilot de Microsoft ne fonctionnait pas, qu'il n'offrait "aucun niveau de précision" et que les clients étaient "obligés de nettoyer le désordre" causé par la mise en œuvre de l'outil.

    Et vous ?

    Quel est votre avis sur le sujet ?
    Trouvez-vous que cette initiative de Microsoft est crédible ou pertinente ?

    Voir aussi :

    Le PDG de Salesforce, Marc Benioff, déclare que l'assistant IA Copilot de Microsoft ne fonctionne pas, qu'il n'offre « aucun niveau de précision » et que les clients sont « obligés de nettoyer le désordre »

    Les outils de développement GenAI n'améliorent pas l'efficacité du codage et augmentent le nombre de bogues : avec Microsoft Copilot les développeurs ont constaté une augmentation de 41 % des bogues

    « Si vous confiez les rênes à Copilot, ne vous étonnez pas qu'il dévoile vos secrets », d'après une récente étude selon laquelle cette IA peut être transformée en outil d'exfiltration de données
    Contribuez au club : corrections, suggestions, critiques, ... Contactez le service news et Rédigez des actualités

  7. #87
    Chroniqueur Actualités

    Homme Profil pro
    Administrateur de base de données
    Inscrit en
    Mars 2013
    Messages
    9 135
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : Canada

    Informations professionnelles :
    Activité : Administrateur de base de données

    Informations forums :
    Inscription : Mars 2013
    Messages : 9 135
    Points : 210 592
    Points
    210 592
    Par défaut Microsoft Copilot au cœur d’une controverse sur la gestion des données sensibles en entreprise
    Microsoft Copilot au cœur d’une controverse sur la gestion des données sensibles en entreprise :
    les utilisateurs ont découvert qu'ils pouvaient accéder sans autorisation aux documents des RH et aux courriels du PDG

    Depuis son lancement, Microsoft Copilot, un assistant intelligent intégré à des outils tels que Microsoft 365, a suscité un grand intérêt pour sa capacité à automatiser et à simplifier les tâches quotidiennes. Cependant, une récente controverse a émergé : des utilisateurs ont découvert que Copilot permettait d'accéder à des informations sensibles, notamment des documents de ressources humaines (RH) ou des emails de dirigeants. Cette révélation met en lumière à la fois les possibilités offertes par cette technologie et les défis en matière de sécurité des données.

    Qu'est-ce que Microsoft Copilot ?

    Microsoft Copilot est un assistant basé sur l'intelligence artificielle, conçu pour intégrer les capacités de modèles de langage avancés, tels que ceux de GPT, dans des environnements professionnels. Il vise à améliorer la productivité en générant des résumés, en automatisant la rédaction de documents, ou encore en aidant à organiser des données complexes. Intégré dans des applications comme Word, Excel ou Teams, il offre un support précieux pour les utilisateurs, des employés aux cadres.

    Cependant, comme pour toute innovation technologique, son implémentation n'est pas sans risques. L’objectif ambitieux de Copilot est de fournir des réponses pertinentes en s'appuyant sur les données accessibles à un utilisateur, mais cet aspect a suscité des inquiétudes lorsque des failles potentielles dans le contrôle des accès ont été découvertes.

    Un accès non maîtrisé aux données sensibles

    Les utilisateurs de Copilot ont récemment signalé que l'outil pouvait accéder à des informations qu'ils n'étaient pas censés consulter. Cela inclut des documents RH, tels que des contrats de travail ou des rapports de performance, ainsi que des emails d'une importance stratégique envoyés par des PDG. Cette situation a fait surgir plusieurs questions :
    • Pourquoi ces données sont-elles accessibles via Copilot ?Microsoft Copilot fonctionne en exploitant l'intégralité des données auxquelles un utilisateur a accès dans son environnement professionnel. Si les permissions des fichiers ou des bases de données ne sont pas configurées correctement, l'assistant peut, par inadvertance, fournir des réponses ou des informations tirées de sources sensibles.
    • Un problème de configuration ou de conception ? Dans la plupart des cas rapportés, le problème semble résider dans une mauvaise gestion des droits d'accès au niveau des fichiers ou des applications associées. Cependant, cela soulève également des interrogations sur la conception même de l'outil. Un assistant doté d'une telle puissance devrait inclure des mécanismes plus robustes pour empêcher l'accès accidentel à des données sensibles.

    Implications pour les entreprises

    La révélation de cette faille a de profondes implications pour les organisations.
    1. Risques pour la sécurité des données : Les entreprises collectent et stockent des données sensibles, des informations financières aux dossiers personnels des employés. Si ces données deviennent accessibles de manière non autorisée via un outil tel que Copilot, cela pourrait entraîner des violations des réglementations sur la protection des données, comme le RGPD en Europe.
    2. Atteinte à la confidentialité : La confidentialité des communications internes, notamment celles des cadres dirigeants, est essentielle pour protéger la stratégie et les intérêts d’une organisation. La divulgation accidentelle d’emails de PDG pourrait nuire à la réputation ou à la compétitivité d’une entreprise.
    3. Perte de confiance : Les employés pourraient perdre confiance dans les systèmes technologiques s’ils craignent que leurs informations personnelles puissent être accessibles à des collègues ou à des tiers.

    Comment Microsoft répond à la controverse

    Aujourd'hui, le géant du logiciel tente de résoudre le problème. Mardi, Microsoft a publié de nouveaux outils et un guide pour aider les clients à atténuer le problème de sécurité de Copilot, qui a permis aux employés d'accéder par inadvertance à des informations sensibles, telles que les courriels du PDG et les documents des ressources humaines.

    Ces mises à jour sont conçues pour « identifier et atténuer les problèmes de partage excessif et de gouvernance », a expliqué l'entreprise dans un nouveau plan pour la suite logicielle de productivité 365 de Microsoft.

    Nom : adress.png
Affichages : 40792
Taille : 116,6 Ko

    « De nombreux défis en matière de gouvernance des données dans le contexte de l'IA n'ont pas été causés par l'arrivée de l'IA », a déclaré un porte-parole de Microsoft. L'IA est simplement le dernier appel à l'action lancé aux entreprises pour qu'elles gèrent de manière proactive leurs documents internes et autres informations, a ajouté le porte-parole.

    Ces décisions dépendent de la situation unique de chaque entreprise. Selon le porte-parole de Microsoft, des facteurs tels que les réglementations sectorielles spécifiques et la tolérance au risque doivent guider ces décisions. Par exemple, différents employés devraient avoir accès à différents types de fichiers, d'espaces de travail et d'autres ressources.

    « Microsoft aide ses clients à améliorer leur gouvernance centrale des identités et des autorisations, afin d'aider les organisations à mettre à jour et à gérer en permanence ces contrôles fondamentaux », a déclaré le porte-parole.

    La magie de Copilot (sa capacité à créer une présentation de 10 diapositives ou à convoquer une liste des produits les plus rentables de votre entreprise) fonctionne en parcourant et en indexant toutes les informations internes de votre entreprise, à l'instar des robots d'indexation utilisés par les moteurs de recherche.

    Historiquement, les services informatiques de certaines entreprises ont mis en place des autorisations laxistes pour déterminer qui pouvait accéder aux documents internes (en sélectionnant « autoriser tous », par exemple, pour le logiciel RH de l'entreprise, plutôt que de se donner la peine de sélectionner des utilisateurs spécifiques).

    Cela n'a jamais posé de problème, car il n'existait pas d'outil permettant à un employé moyen d'identifier et de récupérer les documents sensibles de l'entreprise (jusqu'à ce que Copilot soit mis en place). Par conséquent, certains clients ont déployé Copilot pour découvrir qu'il pouvait permettre aux employés de lire la boîte de réception d'un dirigeant ou d'accéder à des documents RH sensibles.

    « Désormais, lorsque Joe Blow se connecte à un compte et désactive Copilot, il peut tout voir », a déclaré un employé de Microsoft au courant des plaintes des clients. « Tout à coup, Joe Blow peut voir les courriels du PDG ».

    Les limites actuelles de l’IA générative

    Cet incident illustre un problème plus large dans l'adoption des outils d'intelligence artificielle générative en entreprise. Ces outils, bien qu'extrêmement performants, manquent souvent de contextes humains pour éviter des erreurs graves.

    Recommandations pour les entreprises

    Pour tirer parti de Copilot tout en minimisant les risques, les entreprises devraient :
    • Auditer régulièrement les permissions d'accès : S’assurer que les documents sensibles ne sont accessibles qu’à ceux qui en ont besoin.
    • Former les employés : Les sensibiliser à l'utilisation de ces outils et aux bonnes pratiques en matière de gestion des données.
    • Collaborer avec les éditeurs : Travailler étroitement avec Microsoft pour adapter les paramètres de l’outil aux besoins spécifiques de l’entreprise.

    La fonction controversée Windows Recall a signé son retour

    Microsoft a annoncé la fonction Recall lors de l'événement Build en mai. Recall est une fonction basée sur l'IA pour les PC Copilot+. Elle suit toutes les activités d'un PC Windows afin de faciliter les recherches ultérieures en utilisant le langage nature. Pour ce faire, Recall est censée capturer les données de toutes les applications, sauf si vous en excluez une, en prenant une série de captures d'écran et en stockant ces interactions dans une base de données. La fonction Recall s'exécute localement. Elle peut fonctionner sans connexion Internet et même lorsque vous n'êtes pas connecté à votre compte Microsoft.

    Mais Recall est décriée par les experts en sécurité. Si quelqu'un d'autre que vous accède aux données collectées par Recall, les conséquences pourraient être désastreuses. Cela peut vous sembler familier, Recall est remarquablement similaire à la fonctionnalité Timeline de Windows 10, qui a échoué et a été mise de côté. Mais contrairement à Timeline, Recall ne se contente pas de restaurer une version de vos fichiers de bureau, il utilise l'IA pour vous ramener à ce moment, en ouvrant même les applications pertinentes. Un pirate qui parvient à trouver et exploiter une faille dans Recall pourrait causer des dégâts énormes.

    Quels sont les risques potentiels auxquels Microsoft Recall expose les utilisateurs de Windows 11 ?
    • Vous utilisez un ordinateur public : disons que vous faites des achats ou des opérations bancaires en ligne sur un ordinateur de la bibliothèque. Vous n'avez pas réalisé que Recall était actif. Cela permettrait à la personne qui utilise l'ordinateur après vous vient d'aller dans les archives de Recall pour récupérer toutes vos coordonnées bancaires, votre adresse et vos mots de passe. C'est comme remettre les clés de votre maison à un cambrioleur avant de lui dire que vous partez en vacances pour la semaine.
    • Vous utilisez un ordinateur portable professionnel : Votre patron, votre équipe informatique et toute personne ayant accès à votre appareil pourront voir quel usage vous faites de l’appareil. Ils peuvent s'en servir pour suivre votre rendement au travail et même lire les messages privés que vous envoyez à d'autres personnes.
    • Vous utilisez un PC familial : si vous utilisez l'ordinateur familial et que vous n'avez pas de profil protégé par un mot de passe, n'importe qui peut entrer et ouvrir votre historique de rappel. Si vous avez fait quelque chose de peu recommandable, cela va se voir, même si vous avez supprimé l'historique de vos recherches
    • Vous êtes victime d'un piratage ou votre ordinateur portable est volé : si quelqu'un vole votre ordinateur portable et que vous ne disposez pas d'un mot de passe fort pour le verrouiller, un cybercriminel peut utiliser Microsoft Recall pour entrer en possession de vos données et informations personnelles.

    Pourquoi ces risques sont-ils de l’ordre du plausible ? Parce que Microsoft souligne dans la Foire Aux Questions relative à cette fonctionnalité que « Recall n'effectue pas de modération de contenu. Il ne cache pas les informations telles que les mots de passe ou les numéros de comptes financiers. Ces données peuvent se trouver dans des instantanés stockés sur votre appareil, en particulier lorsque les sites ne respectent pas les protocoles Internet standard tels que la dissimulation de la saisie du mot de passe. »

    En d’autres termes, Microsoft Recall est un outil qui stocke vos mots de passe, vos informations, les détails de votre compte, etc. et qui est visible par tous les utilisateurs de votre profil. Si vous n'avez qu'un seul profil pour votre appareil, cela signifie que toutes les personnes ayant accès à ce PC pourront voir vos données Recall.

    Nom : recall.png
Affichages : 8226
Taille : 160,7 Ko

    Face au tollé provoqué par la situation, Microsoft a tenté de répondre aux préoccupations avec une seconde version de son outil : la fonction serait désactivée par défaut au lieu d'être activée, les utilisateurs devraient s'authentifier à nouveau avec Windows Hello avant d'accéder aux données Recall, et les données Recall stockées localement seraient protégées par un chiffrement supplémentaire. Recall peut désormais être entièrement supprimé d'un système à l'aide des paramètres des « fonctionnalités optionnelles » de Windows.

    Conclusion : une innovation à double tranchant

    Microsoft Copilot représente un pas en avant significatif dans l’utilisation de l’IA pour booster la productivité, mais cet incident met en lumière les défis liés à son implémentation. À mesure que les entreprises adoptent ces outils, elles doivent être vigilantes pour équilibrer innovation et sécurité. Si des mesures proactives sont prises pour renforcer le contrôle des accès, Copilot pourrait bien devenir un atout incontournable du monde professionnel.

    Source : Microsoft

    Et vous ?

    La technologie IA peut-elle réellement différencier des données sensibles de celles qui ne le sont pas ?

    Qui est responsable en cas de fuite de données causée par un outil comme Copilot : Microsoft, l'entreprise utilisatrice ou les équipes IT ?

    Les entreprises ont-elles aujourd’hui une maîtrise suffisante de la configuration des permissions sur leurs systèmes internes ?

    Quels mécanismes supplémentaires Microsoft pourrait-il implémenter pour renforcer la sécurité des données sensibles ?

    À quel point est-il réaliste d’espérer qu’un outil aussi puissant reste totalement sécurisé et fiable dans des environnements complexes ?
    Contribuez au club : Corrections, suggestions, critiques, ... : Contactez le service news et Rédigez des actualités

  8. #88
    Expert éminent Avatar de kain_tn
    Homme Profil pro
    Inscrit en
    Mars 2005
    Messages
    1 716
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : Suisse

    Informations forums :
    Inscription : Mars 2005
    Messages : 1 716
    Points : 8 058
    Points
    8 058
    Par défaut
    C'est marrant de voir des entreprises qui paniquent parce que des employés ont accès à des données confidentielles, mais qui ne se posent absolument pas la question quand elles partagent/upload leurs données sur pleins de clouds qui ne leur appartiennent pas!

    Je suppose que c'est le principe de "ce qui ne se voit pas n'existe pas".

    Citation Envoyé par Stéphane le calme Voir le message
    La technologie IA peut-elle réellement différencier des données sensibles de celles qui ne le sont pas ?
    Bien sûr que non.

    Citation Envoyé par Stéphane le calme Voir le message
    Qui est responsable en cas de fuite de données causée par un outil comme Copilot : Microsoft, l'entreprise utilisatrice ou les équipes IT ?
    Une GAFAM ne sera jamais responsable. Et puis vu son argent, bonne chance pour essayer de faire valoir vos "droits".
    Ce sera l'entreprise qui va payer plein pot, et c'est normal, puisque c'est l'entreprise qui a fait ces (mauvais) choix.
    Au mieux, une entreprise fera un procès qui lui coûtera affreusement cher pendant une dizaine d'années.

    Citation Envoyé par Stéphane le calme Voir le message
    Les entreprises ont-elles aujourd’hui une maîtrise suffisante de la configuration des permissions sur leurs systèmes internes ?
    Ni aujourd'hui ni demain.
    Comment maîtriser ce qui est externe? (ces systèmes n'ont d'interne que le nom, vu que tout fuit vers des services Cloud).
    Si vous me confiez vos données, est-ce que vous en avez encore la maîtrise?

    Citation Envoyé par Stéphane le calme Voir le message
    Quels mécanismes supplémentaires Microsoft pourrait-il implémenter pour renforcer la sécurité des données sensibles ?
    Hmmm... La sécurité des données sensibles est-elle la priorité de Microsoft?
    On peut sérieusement se poser la question quand on voit qu'ils poussent pour Recall, malgré les alertes de leurs propres ingénieurs sécurité...

    Citation Envoyé par Stéphane le calme Voir le message
    À quel point est-il réaliste d’espérer qu’un outil aussi puissant reste totalement sécurisé et fiable dans des environnements complexes ?
    Le problème ne vient pas de la "puissance" d'un outil mais de son intégration à tout un tas de systèmes et à la complexité engendrée.
    Aucune chance que ça soit réaliste, donc.

    EDIT:
    Pour ce qui est du schéma "recall security architecture", je ne vois pas comment les points 1, 2, 3 et 4 peuvent protéger d'un attaquant.

    Lorsqu'un utilisateur installe un keylogger, ou lance un cryptolocker, ce n'est pas un attaquant physique qui effectue le travail.

    C'est l'utilisateur lui-même qui va le faire, en cliquant sur ce qu'il considère être quelque chose de légitime. Le prompter pour du windows hello, de la biométrie, ou même ses informations hypothécaires s'il le faut n'y changera absolument rien: le programme exécuté aura les droits sur cette "secure enclave" et n'aura plus qu'à exfiltrer les données...

    Bref, c'est juste pour donner un sentiment de sécurité sur une fonctionnalité qui n'est qu'un spyware déguisé.

    Vive les GAFAM...
    Copier c'est copier; voler c'est vendre un CD une vingtaine d'euros!


    Code C : Sélectionner tout - Visualiser dans une fenêtre à part
    1
    2
    3
    4
    5
    6
    7
    #include <stdio.h>
     
    int main(int argc, char **argv) {
     
        printf("So long, and thanks for the fish, Dennis...\n");
        return 0;
    }

  9. #89
    Chroniqueur Actualités

    Homme Profil pro
    Administrateur de base de données
    Inscrit en
    Mars 2013
    Messages
    9 135
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : Canada

    Informations professionnelles :
    Activité : Administrateur de base de données

    Informations forums :
    Inscription : Mars 2013
    Messages : 9 135
    Points : 210 592
    Points
    210 592
    Par défaut Microsoft est accusée d'utiliser le contenu de Word et d'Excel en ligne pour former son IA Copilot
    Microsoft est accusée d'utiliser le contenu de Word et d'Excel en ligne pour former ses différents modèles d'IA, à moins que vous n'y renonciez.
    l'entreprise nie s'en être servi

    La fonctionnalité « Expériences connectées » de Microsoft Office, activée par défaut, a été critiquée pour avoir potentiellement utilisé le contenu utilisateur pour entraîner l'IA sans l'expliquer clairement. Microsoft nie utiliser les données des clients pour entraîner l'IA, affirmant qu'elle est destinée aux fonctions requises par Internet, comme la co-création de documents. Les critiques mettent en avant le contrat de services de Microsoft, qui accorde à l'entreprise des droits sur le contenu utilisateur. Pour se désinscrire, il faut accéder à des paramètres spécifiques.

    Aux utilisateurs d'Office, Microsoft propose des expériences connectées qui analysent votre contenu : « Les expériences qui analysent votre contenu sont des expériences qui utilisent le contenu de votre bureau pour vous fournir des recommandations de conception, des suggestions de révision, des aperçus de données et d'autres fonctions similaires. Par exemple, le Traducteur ou le Concepteur PowerPoint ». Cette fonctionnalité, activée par défaut, a été accusée de récupérer le contenu créé par les utilisateurs pour former ses systèmes d'IA internes.

    L'expert Linux @nixcraft sur X a qualifié les « Expériences connectées » de « contraires à l'éthique » car le nom de la fonctionnalité ne dit pas qu'il s'agit uniquement de formation à l'IA. La base de connaissances de Microsoft indique que les expériences connectées sont « conçues pour vous permettre de créer, de communiquer et de collaborer plus efficacement » en analysant votre contenu. Il n'est fait aucune mention de l'utilisation de l'IA ou des données pour les fonctionnalités Copilot ou pour former les modèles d'IA de Microsoft.

    Attention : Microsoft Office, comme de nombreuses entreprises ces derniers mois, a sournoisement activé une fonction « opt-out » qui récupère vos documents Word et Excel pour entraîner ses systèmes d'intelligence artificielle internes. Cette fonction est activée par défaut et vous devez décocher manuellement une case pour la désactiver. Si vous êtes un écrivain qui utilise MS Word pour rédiger des contenus propriétaires (articles de blog, romans ou tout autre travail que vous avez l'intention de protéger par des droits d'auteur et/ou de vendre), vous voudrez désactiver cette fonction immédiatement.
    Nom : nix.png
Affichages : 8427
Taille : 21,4 Ko

    Plusieurs médias dans la presse spécialisée ont repris ces allégations, notant que dans le cadre de son fonctionnement normal, l'utilitaire comporte une fonction sournoise dans laquelle elle « recueille automatiquement des données à partir de fichiers Word et Excel pour entraîner les modèles d'IA de l'entreprise ». La collecte de données est apparemment activée par défaut, ce qui signifie que le contenu des utilisateurs peut être utilisé pour entraîner les algorithmes d'IA, à moins qu'il ne soit spécifiquement désactivé. La désactivation elle-même serait « un processus très alambiqué ».

    Selon l'un des rapports, ce paramètre par défaut permet à Microsoft d'utiliser toutes sortes de documents, qu'il s'agisse « d'articles, de romans ou d'autres œuvres destinées à être protégées par le droit d'auteur ou à des fins commerciales, sans consentement explicite ».

    Microsoft Connected Experiences collecte vos fichiers Word et Excel à des fins d'entraînement à l'IA. Pourquoi ne pas parler de formation à l'IA ? Pourquoi utiliser de tels mots ? Il s'agit d'une pratique contraire à l'éthique suivie par une entreprise pesant des milliards de dollars. Comment cela peut-il être légal ? Je suis bien content de ne pas avoir Windows OS ou MS Office.
    Les conséquences sont énormes pour tous ceux qui utilisent ces outils bien connus pour générer du contenu propriétaire, qu'il s'agisse de documents écrits ou, peut-être, de données financières sensibles. Le problème est que lorsqu'un élément de contenu est utilisé pour former l'une des IA actuelles, comme le Copilot de Microsoft, une sorte d'empreinte est laissée dans l'algorithme. Lorsqu'un utilisateur différent demande des informations à un moment donné dans le futur, il est possible que votre contenu, aussi sensible soit-il, ou les informations propriétaires qu'il contient, fassent « surface » sous une forme ou une autre dans la réponse de l'IA générative.

    Microsoft a répondu à ces accusations via le compte officiel @Microsoft365 sur les réseaux sociaux, en niant ces allégations. « Nous n'utilisons pas les données des clients pour former les LLM », a déclaré Microsoft. Selon l'entreprise, « Microsoft Connected Experiences » ne concerne pas les outils d'IA générative ni la formation. « Ce paramètre active uniquement les fonctionnalités nécessitant un accès à Internet, comme la co-création d'un document. »

    Cependant, comme le souligne Tom's Hardware, Microsoft 365 et Microsoft Connected Experiences sont couverts par le contrat de services de Microsoft, qui confère à l'entreprise tous les droits de propriété intellectuelle sur l'ensemble de votre contenu.

    « Dans la mesure nécessaire pour vous fournir les Services et à d'autres, pour vous protéger et protéger les Services, et pour améliorer les produits et services Microsoft, vous accordez à Microsoft une licence de propriété intellectuelle mondiale et libre de droits pour utiliser votre Contenu, par exemple, pour faire des copies, conserver, transmettre, reformater, afficher et distribuer via des outils de communication votre Contenu sur les Services », peut-on lire dans le contrat.

    La réaction de Microsoft

    Microsoft a démenti les affirmations selon lesquelles il alimente en informations privées de grands modèles de langage. Les données de Microsoft 365 peuvent désormais être automatiquement téléchargées et traitées pour offrir des « expériences connectées » qui, selon Microsoft, « vous permettront de créer, de communiquer et de collaborer plus efficacement ».

    Le 21 octobre, Microsoft a publié sur son blog des informations détaillées sur l'expérience connectée, qui semblent avoir évoqué le souvenir de Recall, un outil qui prend des clichés de l'écran des utilisateurs toutes les quelques secondes et qui a été décrit comme un « cauchemar en matière de protection de la vie privée ».

    Enfouie au plus profond de la section confidentialité des paramètres d'Office 365 se trouve une option d'expérience connectée qui est activée par défaut pour les clients américains (il faut vérifier pour les autres pays). Dans ce menu, on peut également lire en gras : « Votre vie privée est importante ». Si les utilisateurs ne choisissent pas expressément de désactiver cette fonctionnalité, les données des documents sont récoltées et traitées - ce qui a déclenché la panique à l'idée qu'elles pourraient être utilisées pour entraîner Copilot et d'autres modèles d'IA.

    Des allégations concernant le scrapping de données par Microsoft ont circulé sur les médias sociaux au cours du week-end

    « Cela ne peut pas être vrai », a écrit Florian Roth, responsable de la recherche chez Nextron Systems. « Alors que les entreprises sont occupées à appliquer des politiques d'IA pour protéger les données confidentielles, Microsoft active discrètement cette fonctionnalité par défaut et l'intitule « Votre vie privée est importante ».

    « Il est incroyable que Microsoft ait discrètement activé cette fonction alors que tout le monde se concentrait sur sa fonction d'IA 'Recall' », poursuit-il.

    Microsoft reste vague sur ce qu'elle fait des données qu'elle recueille, même s'il ne fait aucun doute qu'elle les recueille.

    « Les expériences connectées qui analysent votre contenu sont des expériences qui utilisent votre contenu Office pour vous fournir des recommandations de conception, des suggestions d'édition, des informations sur les données et des fonctionnalités similaires », explique Microsoft.

    Avec les applications et services Web, les réseaux sociaux, les moteurs de recherche et bien d'autres choses encore, plusieurs acteurs majeurs du secteur de la technologie et de l'IA ont été accusés à juste titre d'avoir récupéré des données utilisateur pour entraîner l'IA. Le PDG de Microsoft AI, Mustafa Suleyman, a récemment déclaré que tout contenu sur le Web « est un usage équitable » pour la formation, la reproduction et plus encore de l'IA. Tout le reste, y compris les données que les gens choisissent activement de ne pas partager ou de cocher une case « ne pas récupérer », est une « zone grise ». De plus, il appartient aux tribunaux de décider quelles données sont interdites.

    Revenons à Microsoft Connected Experiences. L'entreprise a déclaré qu'elle n'utilisait pas vos documents Word pour entraîner des modèles d'IA. Néanmoins, si vous souhaitez vous désinscrire, vous devez accéder à Fichier > Options > Centre de gestion de la confidentialité > Paramètres du Centre de gestion de la confidentialité > Options de confidentialité > Paramètres de confidentialité > Expériences connectées facultatives > Décochez la case : « Activer les expériences connectées facultatives ».

    Que sont les expériences connectées ?

    En parcourant les « expériences » de Microsoft, nous n'avons pas trouvé une qui mentionne explicitement l'entraînement de données d'IA (mais n'hésitez pas à le préciser si vous avez trouvé le contraire). D'ailleurs, certains semblent ne pas avoir trouvé la formulation qui expliquerait cet enchainement.

    Les cas d'utilisation mentionnés qui « analysent votre contenu » comprennent l'application automatique d'étiquettes de sensibilité ou une fonction qui scanne les cartes de visite pour en extraire des informations.

    Néanmoins, un utilisateur inquiet a posé une question sur la politique de Microsoft en matière de formation à l'IA sur son forum d'assistance, où un agent a admis que sa position n'était pas tout à fait claire. Il a écrit :

    « À ma connaissance, Microsoft n'a pas fourni de détails détaillés accessibles au public sur les types spécifiques d'informations personnelles utilisées pour former ses modèles d'IA. Les informations relatives à l'utilisation des données pour l'entraînement de l'IA sont souvent vagues en raison de la nature des politiques de confidentialité et des conditions de service.

    « Cependant, nous ne pouvons trouver que des indications générales sur la manière dont Microsoft traite les données personnelles. Mais pour des raisons de confidentialité, il se peut qu'elle ne fournisse pas de détails précis sur les données spécifiquement utilisées pour l'apprentissage de l'IA. »

    Dans sa déclaration de confidentialité, Microsoft indique : « Dans le cadre de nos efforts pour améliorer et développer nos produits, nous pouvons utiliser vos données pour développer et entraîner nos modèles d'IA. »

    Sur une page expliquant sa politique en matière d'entraînement à l'IA, la société promet qu'elle n'entraîne pas les modèles d'IA Copilot à partir de « nos clients commerciaux, ou de toute donnée provenant d'utilisateurs connectés à un compte organisationnel M365/EntraID » ou « d'utilisateurs connectés avec des abonnements personnels ou familiaux M365 ».

    Un porte-parole de Microsoft a explicitement démenti les allégations selon lesquelles l'entreprise utilisait les données M365 pour entraîner des modèles d'IA et a déclaré : « Dans les applications grand public et commerciales de Microsoft 365, les modèles d'IA ne sont pas utilisés : « Dans les applications grand public et commerciales de Microsoft 365, Microsoft n'utilise pas les données des clients pour entraîner des modèles de langage de grande taille sans leur autorisation. »

    Sources : expériences connectées dans Office, Microsoft Privacy Statement, Microsoft Community, politique de Microsoft sur la formation de l'IA

    Et vous ?

    Quelle lecture faites-vous de la situation ?

    Comment ce genre de pratiques affecte-t-il la réputation de Microsoft auprès de ses utilisateurs et du grand public ?

    Pensez-vous que ce scandale potentiel incitera Microsoft à changer de politique, ou l’entreprise continuera-t-elle sur cette voie si les critiques restent limitées ?
    Contribuez au club : Corrections, suggestions, critiques, ... : Contactez le service news et Rédigez des actualités

  10. #90
    Membre extrêmement actif
    Homme Profil pro
    Développeur informatique
    Inscrit en
    Octobre 2017
    Messages
    2 041
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : Suisse

    Informations professionnelles :
    Activité : Développeur informatique

    Informations forums :
    Inscription : Octobre 2017
    Messages : 2 041
    Points : 6 369
    Points
    6 369
    Par défaut
    Pas besoin de faire de grand discours... Cette news confirme simplement que Microsoft se croit tout permis et considère que les données privées de ses clients sont des données publiques pour elle!

    Si vous êtes actuellement derrière votre PC Windows bien au chaud dans votre bureau croyant être dans l'intimité de votre chez soi... Ben oubliez! Microsoft est installé sur votre épaule en train d'espionner tout ce que vous faites...

  11. #91
    Chroniqueur Actualités

    Homme Profil pro
    Rédacteur technique
    Inscrit en
    Juin 2023
    Messages
    1 034
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : Bénin

    Informations professionnelles :
    Activité : Rédacteur technique
    Secteur : High Tech - Éditeur de logiciels

    Informations forums :
    Inscription : Juin 2023
    Messages : 1 034
    Points : 18 294
    Points
    18 294
    Par défaut Microsoft revient à une application native pour Copilot et détourne un raccourci à son avantage
    Microsoft détourne un raccourci clavier pour attirer l'attention sur Copilot. L'assistant d'IA redevient, en quelque sorte, une application native sur Windows
    mais ne fonctionne pas localement sur votre PC

    Microsoft a l'intention de rendre son assistant d'IA Copilot plus utile et facilement accessible sur Windows 11. Pour cela, l'entreprise a décidé de passer d'une PWA à une application native et a doté la fonction d'affichage rapide de l'outil d'un nouveau raccourci clavier (Alt + Espace). Mais ce raccourci clavier est déjà utilisé par de nombreuses autres applications, y compris Microsoft PowerToys. PowerToys Run, par exemple, utilise ce raccourci pour ouvrir un lanceur dans lequel l'utilisateur peut taper le nom du service qu'il recherche. Microsoft est critiqué sur ce choix, décrit comme une nouvelle ruse de sa part pour mettre son produit en avant.

    Microsoft fait volte-face et revient à une application native pour l'assistant Copilot

    Il y a quelques mois, Microsoft décidait à la surprise générale de réduire l'expérience Copilot à une PWA sur Windows. Cette décision a déçu un grand nombre d'utilisateurs qui s'attendaient à ce que Copilot soit mieux intégré à Windows. « Cela montre vraiment que Microsoft ne se tient pas à un niveau élevé. Ils font tout ce bruit autour des PC propulsés par l'IA et d'une nouvelle touche Copilot, pour ne livrer que... pas grand-chose », a écrit un critique.

    L'entreprise est revenue sur sa décision et va remplacer cette version PWA par une expérience « native » qui introduit un nouveau raccourci clavier et une interface de vue rapide. L'affichage rapide de Copilot flotte au-dessus de la barre des tâches, à l’image des nouvelles applications Companion que Microsoft teste actuellement pour les fichiers, contacts et entrées de calendrier. Elle peut être déclenchée via le raccourci clavier Alt + Espace ou via la barre système.

    Nom : zerz.png
Affichages : 7636
Taille : 524,4 Ko

    L'affichage rapide ne fait rien de spécial ici, mais il reste visible en permanence, au-dessus des autres applications, jusqu’à ce que vous reléguiez Copilot dans la barre des tâches ou utilisiez à nouveau le raccourci Alt + Espace. Il offre un accès rapide et constant à Copilot, sans avoir besoin d’ouvrir une fenêtre distincte.

    Il s'agit d'un changement très mineur, mais le fait de faire de l'assistant d'IA Copilot une application native sur Windows pourrait ouvrir la voie à de futures innovations et plus d'intégration. Microsoft met actuellement la nouvelle version de Copilot à la disposition des participants au programme Windows Insiders.

    La mise à jour est progressivement déployée sur tous les appareils Windows 10 et 11 du programme Windows Insider. Bien que Microsoft insiste sur le fait que la fin du support de Windows 10 est prévue pour octobre 2025, l'entreprise récupère un raccourci clavier pour son assistant d'IA mal-aimé.

    Par ailleurs, rien n'indique que Copilot fonctionnera localement sur votre PC, des testeurs ont découvert que l'application se contente toujours d'appeler le site Web Copilot de Microsoft. La société a indiqué qu'une fois la mise à jour de l'application installée, Copilot apparaîtra dans la barre d'état système.

    Le raccourci peut générer des conflits potentiels avec d’autres applications

    Le choix du raccourci clavier Alt + Espace pourrait poser problème aux utilisateurs de Windows, car de nombreuses applications utilisent déjà cette combinaison, y compris l'utilitaire PowerToys de Microsoft. Ainsi, PowerToys Run utilise Alt + Space pour ouvrir un lanceur dans lequel les utilisateurs peuvent taper le nom du service qu'ils recherchent. Le raccourci clavier Alt + Espace est également utilisé pour afficher le menu contextuel de la fenêtre active.

    Par conséquent, la décision de Microsoft d'ajouter le raccourci à Copilot pourrait ne pas plaire aux guerriers du clavier, habitués à ce que leurs raccourcis fonctionnent d'une manière particulière. Cela pourrait engendrer des conflits entre Copilot et d’autres outils, et la gestion du raccourci risque de devenir complexe pour les utilisateurs. Microsoft est conscient du problème, mais la firme de Redmond y a répondu d'une manière qui lui vaut des critiques :

    Citation Envoyé par Microsoft

    Note : l'application Copilot pour Windows utilise la fonction RegisterHotKey pour le raccourci clavier Alt + Espace. De nombreuses applications utilisent ce raccourci clavier aujourd'hui. Pour toutes les applications installées sur votre PC qui pourraient utiliser ce raccourci clavier, Windows enregistrera l'application lancée en premier sur votre PC et fonctionnant en arrière-plan comme l'application invoquée lors de l'utilisation des touches Alt + Espace.
    L'on peut en effet se demander pourquoi Microsoft a abandonné l’ancien raccourci « Windows + C » utilisé avec Copilot, ou pourquoi il n’a pas conservé la touche Copilot dédiée introduite sur les nouveaux PC Copilot+ pilotés par l'IA. Mais encore, Microsoft précise que « Copilot continuera à explorer les options liées aux raccourcis clavier de l'application », ce qui donne l'impression que c'est l'assistant d'IA qui mène la barque chez le géant des logiciels.

    « Les personnes qui prennent ces décisions devraient être obligées de travailler au service d'assistance pendant un mois afin de comprendre l'impact du changement. Pour autant que je sache, Windows + S et Windows + Q font la même chose et ouvrent la recherche. Il y en a d'autres qui ne sont pas utilisées. Je suggérerais bien Windows + C pour « Copilot », mais pour une raison quelconque, cette touche est censée ouvrir Équipes », a écrit un critique.

    « Les fonctions de ce type devraient être facultatives et faciles à désactiver si l'on change d'avis. Tout ce qui concerne Copilot devrait l'être. Mais dernièrement, Microsoft tente d'imposer aux utilisateurs des fonctions d'IA à peine utiles et qui s'avèrent parfois un véritable cauchemar pour la vie privée », a écrit un autre.

    Copilot : une fonctionnalité d'IA toujours en quête d’identité ?

    Le passage d'une PWA à une application native pour Copilot représente une étape importante pour renforcer l'intégration et utilité de l'assistant d'IA sur Windows 10 et 11. Cependant, il reste encore de nombreux défis à surmonter pour en faire un assistant d'IA vraiment fluide et intégré. Alors que Microsoft jongle avec les différentes versions et raccourcis, la société pourrait écouter les commentaires des utilisateurs pour mieux affiner cette expérience.

    Pour une raison inconnue, Microsoft tente également d'obliger les utilisateurs à accepter la fonctionnalité controversée Recall, qui utilise l'IA pour enregistrer des captures d’écran automatiques des activités sur votre ordinateur, créant ainsi une sorte de mémoire visuelle numérique. Toutefois, les experts en cybersécurité alertent sur les risques de sécurité. Ils estiment notamment que Recall constitue une mine d'or pour les pirates informatiques.

    Selon Microsoft, le but de Recall est de permettre à l'utilisateur de retrouver facilement le contenu qu'il a consulté (fichiers, sites Web, etc.) simplement en tapant des mots-clés ou en naviguant dans la chronologie des captures. Malgré la polémique de la fonctionnalité, Microsoft poursuit le déploiement de Recall.

    Source : Microsoft

    Et vous ?

    Quel est votre avis sur le sujet ?
    Que pensez-vous du nouveau raccourci clavier ajouté par Microsoft à Copilot sur Windows ?
    Les critiques affirment que Microsoft tente de détourner le raccourci au profit de Copilot. Qu'en pensez-vous ?
    Que pensez-vous du choix de Microsoft de revenir à une application native pour Copilot ?
    Utilisez-vous Copilot sur Windows ? Si oui, le trouvez-vous utile ? Partagez votre expérience.

    Voir aussi

    Microsoft lance Copilot Pages, un canevas collaboratif amélioré par l'IA pour les utilisateurs de Microsoft 365 qui intègre la collaboration d'équipe en temps réel avec les capacités d'IA de Microsoft Copilot

    Microsoft rend son assistant Copilot beaucoup moins utile sur les nouveaux PC Copilot+ pilotés par l'IA, la touche Copilot dédiée ne fait rien d'autre que lancer une version PWA du chatbot

    La fonction controversée de Recall de Microsoft connaît déjà quelques problèmes : elle ne respecte pas toujours les préférences de l'utilisateur et ne fonctionnera pas avec certains programmes d'accessibilité

  12. #92
    Chroniqueur Actualités

    Homme Profil pro
    Rédacteur technique
    Inscrit en
    Juin 2023
    Messages
    1 034
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : Bénin

    Informations professionnelles :
    Activité : Rédacteur technique
    Secteur : High Tech - Éditeur de logiciels

    Informations forums :
    Inscription : Juin 2023
    Messages : 1 034
    Points : 18 294
    Points
    18 294
    Par défaut Microsoft impose son assistant d'IA Copilot aux utilisateurs de sa suite Microsoft 365 et les oblige à payer
    Microsoft impose son assistant d'IA Copilot aux utilisateurs de sa suite Microsoft 365 et les oblige à payer l'accès
    les utilisateurs sont frustrés et réclament des mesures contre l'entreprise

    Microsoft revient à la charge avec son assistant d'IA Copilot et déclenche une nouvelle vague de polémiques. Cette fois-ci, il a ajouté Copilot à sa suite de productivité Microsoft 365 en Australie et dans plusieurs pays d'Asie du Sud-Est. Microsoft 365 est son service d'abonnement pour des logiciels tels que Word, Excel et PowerPoint. Parallèlement à l'intégration de Copilot, l'entreprise a augmenté les prix pour tous ceux qui utilisent Microsoft 365 dans ces pays. Les personnes qui n'utilisent pas Copilot ou qui n'ont pas envie de l'utiliser n'ont pas le choix et sont donc obligées de payer quelques dollars de plus pour continuer à avoir accès à Microsoft 365.

    Microsoft impose son outil d'IA Copilot aux utilisateurs et les force à payer l'accès

    L'assistant d'IA Copilot de Microsoft a été l'un des principaux points de frictions entre la société et ses utilisateurs cette année. Le géant de Redmond cherche par tous les moyens à amener les utilisateurs à utiliser Copilot, s'adonnant parfois à des pratiques qui exaspèrent les clients. Le comportement de Microsoft a suscité de vives critiques et des mécontentements notables parmi les utilisateurs au cours de l’année, mais l'entreprise n'a pas l'intention de les écouter.


    Récemment, Microsoft a décidé d'ajouter Copilot à sa suite de productivité Microsoft 365 en Australie et dans plusieurs pays d'Asie du Sud-Est. Cette intégration a été suivie d'une augmentation des prix de Microsoft 365. Qu'en est-il des personnes qui ne veulent pas payer pour que Copilot améliore leurs documents et résume leurs courriels ? Ils n'ont pas de chance. Microsoft ne leur a pas laissé la possibilité de choisir s'ils veulent ou non ajouter l'IA à leur abonnement.

    Alistair Fleming utilise Word pour écrire des scripts pour sa chaîne YouTube sur le catch japonais des années 1990. L'Australien a remarqué que chaque fois qu'il terminait une ligne, le logo de Copilot apparaissait à l'écran et lui demandait s'il pouvait l'aider à écrire. « Il était très désireux d'être utilisé, ce qui m'irritait en tant qu'utilisateur », a déclaré le vidéaste. Sa facture mensuelle pour Microsoft 365 était passée de 11 dollars australiens à 16 dollars australiens.

    Certains utilisateurs ont déclaré sur les médias sociaux que les fenêtres contextuelles de Copilot leur rappelaient Clippy, un assistant que Microsoft a ajouté à sa suite Office à la fin des années 1990 et qui offrait fréquemment une aide non sollicitée. Clippy a été largement tourné en dérision par les critiques.

    Ce dernier changement montre à quel point Microsoft tente désespérément de trouver des moyens de tirer profit de ses énormes investissements dans l'IA. Copilot est un maillon clé du plan du PDG Satya Nadella pour continuer à développer l'activité logicielle de Microsoft pour les clients grand public et les entreprises.

    Mais la stratégie agressive de Microsoft attise l'ire des utilisateurs, dont certains affirment se sentir abuser. Un porte-parole de Microsoft a refusé de commenter la stratégie derrière l'ajout forcé de Copilot dans certaines régions et n'a pas voulu dire s'il prévoyait une approche similaire sur d'autres marchés.

    Alistair Fleming a cherché à supprimer Copilot de son logiciel de travail, mais a constaté que ce n'était pas possible. Il a donc résilié son abonnement. Il utilise désormais Google Docs. De nombreux critiques ont déclaré qu'ils abandonneront Microsoft 365 si cette mise à jour est déployée dans leurs régions.

    Des centaines de milliards ont été investis dans l'IA pour des résultats peu reluisants

    Microsoft est le plus gros investisseur d'OpenAI, le fabricant de ChatGPT. Certaines sources estiment que le géant de Redmond a déjà injecté près de 14 milliards de dollars dans OpenAI. Depuis le début de l'année 2023, Microsoft tente d'utiliser l'IA générative pour gagner du terrain sur le marché des applications grand public. Il a d'abord intégré l'IA dans son moteur de recherche Bing comme outil de chat, mais n'a pas réussi à gagner assez de terrain face à Google.

    Il a ensuite lancé Copilot, un chatbot et un générateur de contenu qui s'intègre au logiciel 365 pour aider à rédiger des courriels, à résumer des réunions et à créer des diapositives PowerPoint. La version premium grand public de Copilot a été lancée en janvier 2024 au prix de 20 $ par mois aux États-Unis, ce qui s'ajoute aux quelque 7 $ mensuels d'un abonnement individuel à 365. Toutefois, Microsoft doit rivaliser sur un marché qui est hautement concurrentiel.

    Le chatbot ChatGPT de son partenaire OpenAI domine le marché. À titre de comparaison, selon les données de Sensor Tower, l'application Copilot a été téléchargée 37 millions de fois entre mai 2023 et la mi-décembre, contre 433 millions de téléchargements pour ChatGPT. Outre ChatGPT, Copilot de Microsoft doit également faire face à une concurrence féroce de la part d'assistants tels que Claude 3 d'Anthropic, Gemini de Google et Grok du milliardaire Elon Musk.

    Microsoft n'a pas publié de chiffres de vente pour Copilot, mais a récemment déclaré lors d'une conférence que « près de 70 % des entreprises du classement Fortune 500 utilisaient l'assistant d'IA ». Le géant de Redmond a également déclaré récemment que le chiffre d'affaires total de l'IA dépassera bientôt les 10 milliards de dollars sur une base annuelle. Ce chiffre englobe tous ses services d'IA, y compris les services cloud computing pour d'autres développeurs.

    L'on ignore ce sur quoi ses prévisions sont basées. Microsoft est confronté à la pression des éditeurs de logiciels d'entreprise rivaux qui ont lancé leurs propres produits à base d'IA, notamment Salesforce, ainsi qu'aux développeurs d'IA, comme OpenAI et Anthropic, qui se lancent dans la vente aux entreprises.

    Au sein de Microsoft, Copilot est considéré comme la première étape de sa stratégie en matière d'IA. La prochaine vague sera centrée sur les agents, des outils automatisés capables de gérer des tâches plus complexes telles que les interactions avec le service clientèle ou la réservation de voyages.

    L'IA générative a mobilisé des investissements colossaux au cours des deux dernières années. Cependant, malgré des investissements des grandes entreprises de l'IA estimés à 292 milliards de dollars, le chiffre d'affaires généré reste faible. En outre, les centres de données mettent à rude épreuve les réseaux électriques.

    Et vous ?

    Quel est votre avis sur le sujet ?
    Que pensez-vous des pratiques de Microsoft pour amener les gens à utiliser Copilot ?
    Selon vous, pourquoi l'entreprise continue sur cette lancée malgré le mécontentement des utilisateurs ?
    À long terme, quels pourraient être les impacts de cette stratégie sur Microsoft ? Risque-t-il un abandon massif de ses produits ?

    Voir aussi

    Microsoft détourne un raccourci clavier pour attirer l'attention sur Copilot. L'assistant d'IA redevient, en quelque sorte, une application native sur Windows, mais ne fonctionne pas localement sur votre PC

    Microsoft rend son assistant Copilot beaucoup moins utile sur les nouveaux PC Copilot+ pilotés par l'IA, la touche Copilot dédiée ne fait rien d'autre que lancer une version PWA du chatbot

    Malgré des investissements des grandes entreprises de l'IA estimés à 292 milliards de dollars, le chiffre d'affaire généré reste faible et les centres de données mettent à rude épreuve les réseaux électriques

  13. #93
    Chroniqueur Actualités

    Homme Profil pro
    Administrateur de base de données
    Inscrit en
    Mars 2013
    Messages
    9 135
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : Canada

    Informations professionnelles :
    Activité : Administrateur de base de données

    Informations forums :
    Inscription : Mars 2013
    Messages : 9 135
    Points : 210 592
    Points
    210 592
    Par défaut Microsoft accusée de déguiser son moteur de recherche Bing en Google pour tromper les internautes inattentifs
    Microsoft accusée de déguiser son moteur de recherche Bing en Google pour induire en erreur les internautes inattentifs.
    Pour certains, la stratégie reflète une concurrence féroce, pour d'autre, c'est une manipulation délibérée

    Microsoft tente une nouvelle stratégie pour inciter les gens à utiliser son moteur de recherche Bing. Lorsqu'une personne qui n'est pas connectée à un compte Microsoft recherche « Google » sur Bing, la page de résultats change pour ressembler à celle de Google. L'interface comporte une barre de recherche, une image semblable à celle de Google en haut de la page et un texte sous la barre de recherche qui imite la présentation de Google. La page défile même un peu vers le bas pour masquer la barre de recherche habituelle de Bing. Bien que les résultats de recherche habituels de Bing s'affichent toujours sous cette fausse interface Google, ce changement se produit spécifiquement lorsque quelqu'un effectue une recherche sur « Google ». Cette tactique est particulièrement visible lorsque les utilisateurs configurent un nouvel ordinateur avec le navigateur Microsoft Edge, ce qui peut les amener à utiliser Bing sans s'en rendre compte alors qu'ils voudraient en réalité utiliser Google.

    Microsoft aimerait vraiment, vraiment, vraiment que vous utilisiez Bing, son propre moteur de recherche qui concurrence le monopole de Google. Non seulement Bing est intégré à Windows et à d'autres produits Microsoft tels que le navigateur Edge, mais il utilise également de nombreuses astuces visuelles pour vous détourner de Google. Mais la dernière astuce de l'entreprise est plus, eh bien, délicate - en fait, il s'agit tout simplement d'un camouflage de Google.

    Microsoft, en quête de parts de marché dans le domaine des moteurs de recherche, semble avoir adopté une approche audacieuse. En utilisant des interfaces ou des résultats qui imitent visuellement ceux de Google, Bing espère capter l’attention des utilisateurs habitués à ce dernier. Bien que cette tactique puisse paraître astucieuse d’un point de vue marketing, elle brouille la frontière entre l’innovation (côté design) et la manipulation.

    Il est crucial de rappeler que Google domine le marché mondial des moteurs de recherche avec environ 90 % de part de marché selon les données de StatCounter, tandis que Bing peine à dépasser 3 %. Face à cet écart, Microsoft pourrait considérer ces méthodes comme un moyen de réduire l’écart rapidement, mais à quel prix ?

    Voici comment cela fonctionne. Si vous allez sur Bing et que vous cherchez [google] ou [moteur de recherche] et aussi [yandex], Bing vous dirigera vers une nouvelle boîte de recherche qui ressemble beaucoup à celle de Google. En fait, il masque les marques Bing et Microsoft en vous ancrant juste assez loin pour que vous ne les voyiez pas.

    Voici une image GIF de ce système en action :

    Nom : bing-search-box-trick.gif
Affichages : 4973
Taille : 1,98 Mo

    La stratégie de Microsoft repose en partie sur la confusion des utilisateurs, ce qui soulève des inquiétudes quant au respect de leur choix et de leur autonomie. Si certains internautes remarquent la supercherie, d’autres, moins attentifs, risquent d’être dirigés vers Bing sans s’en rendre compte. De plus, cette approche pourrait nuire à la crédibilité de Bing. Plutôt que d’attirer des utilisateurs grâce à des fonctionnalités uniques ou une meilleure expérience, la marque s’expose à des critiques sur son intégrité.

    Des réactions mitigées

    Cette pratique a suscité des réactions mitigées dans l’opinion publique et parmi les experts du secteur. Certains estiment que cela reflète une concurrence féroce, voire désespérée, dans un domaine dominé par un acteur quasi monopolistique. D’autres, en revanche, condamnent fermement cette tactique, la qualifiant de manipulation délibérée.

    Une question se pose tout de même : jusqu’où une entreprise peut-elle aller pour concurrencer un leader du marché ? Si la concurrence encourage généralement l’innovation, des pratiques trompeuses risquent de compromettre la confiance des utilisateurs et d’affaiblir l’écosystème numérique dans son ensemble.

    Microsoft a demandé aux utilisateurs de Chrome d'essayer Bing par le biais de fenêtres pop-up non qui ne pouvaient pas être bloqués

    Des publicités Bing apparaissaient sous forme de pop-ups dans Chrome sur Windows 10 et 11, poussant les utilisateurs à faire de Bing leur moteur de recherche par défaut. Microsoft a présenté cette démarche comme une opportunité pour les utilisateurs, offrant plus d’interactions avec Copilot et un historique de conversation enrichi.

    Comme les utilisateurs l'ont souligné, lors de l'utilisation du navigateur de bureau de Google sur Windows 10 ou 11, une boîte de dialogue apparaît soudainement et de manière irritante sur le côté de l'écran, invitant les gens à faire de Bing de Microsoft le moteur de recherche par défaut dans Chrome. Les internautes sont informés qu'ils peuvent utiliser Chrome pour interagir avec le chat bot OpenAI GPT-4 de Bing, ce qui leur permet de poser des questions et d'obtenir des réponses en utilisant le langage naturel :

    « Discutez gratuitement avec GPT-4 sur Chrome ! Obtenez des centaines de discussions quotidiennes avec Bing Al », lit-on dans l'annonce. Si vous cliquez sur « Oui », la fenêtre contextuelle installera l'extension Chrome « Bing Search » tout en faisant du moteur de recherche de Microsoft le moteur de recherche par défaut.

    Si vous cliquez sur "Oui" dans l'annonce pour passer à Bing, une fenêtre contextuelle de Chrome s'affiche, vous demandant de confirmer que vous souhaitez changer le moteur de recherche par défaut du navigateur. La fenêtre contextuelle demande : « Voulez-vous changer de fournisseur de recherche ? ». Puis un avertissement Chrome indique : « l'extension "Microsoft Bing Search for Chrome" a modifié la recherche pour utiliser bing.com ».

    Juste en dessous de cette alerte, apparemment en prévision de la fenêtre contextuelle de Chrome, une autre notification Windows avertit : « Attendez - ne changez pas à nouveau ! Si vous le faites, vous désactiverez Microsoft Bing Search for Chrome et perdrez l'accès à Bing Al avec GPT-4 et DALL-E 3. Sélectionnez Garder pour rester avec Microsoft Bing ».

    Il ne semble pas y avoir de moyen simple d'empêcher la publicité d'apparaître.

    Nom : micro.png
Affichages : 1186
Taille : 422,4 Ko

    Microsoft Bing aurait gagné moins de 1 % de parts de marché depuis l'ajout du chatbot d'IA Bing Chat

    Malgré l'intégration des fonctions d'IA dans Bing, les résultats ne sont pas convaincants. Les données de Sensor Tower, compilées par Bloomberg, ont révélé que les efforts de Microsoft en matière d'IA n'ont pas érodé de manière significative la part de marché de Google dans le domaine de la recherche. Les données de la société d'analyse Statcounter révèlent également que le moteur de recherche de Microsoft a terminé l'année 2023 avec seulement une part de 3,4 % du marché mondial de la recherche, soit une augmentation de moins d'un point de pourcentage depuis l'arrivée de Bing Chat. Même son de cloche pour 2024 où Bing termine avec 3,97 % de part de marché.

    Nom : statcounter.png
Affichages : 1176
Taille : 118,6 Ko

    Bing a longtemps lutté pour sa pertinence et s'est attiré plus de moqueries que de reconnaissance au fil des ans en tant qu'alternative sérieuse à Google. Les multiples changements de marque et de conception depuis ses débuts en 2009 n'ont guère contribué à accroître sa popularité. Un mois avant que Microsoft ne dote le moteur de recherche d'une IA générative, les internautes passaient 33 % moins de temps à l'utiliser que 12 mois plus tôt. Selon Sensor Tower, l'ajout des fonctions d'IA à Bing a permis d'inverser cette tendance.

    Néanmoins, le directeur marketing de Microsoft, Yusuf Medhi, a déclaré à Bloomberg que « des millions et des millions de personnes » continuent à utiliser les nouvelles fonctions d'IA. Mais selon les données de StatCounter, la part de marché mondiale de Google se situe actuellement dans les 90 %, et ce depuis pratiquement toute la période de 15 ans pour laquelle StatCounter fournit des données. La part de marché mondiale de Bing sur la même période a été remarquablement stable : elle était d'environ 3,5 % à l'été 2009, lorsque ce qui était connu sous le nom de Live Search a été rebaptisé Bing, et en décembre 2023, ce chiffre était d'environ 3,4 %.

    Les données américaines récentes sont légèrement plus flatteuses pour Microsoft, car dans l'ensemble, les utilisateurs ont passé 84 % plus de temps sur le moteur de recherche. L'utilisation de Bing est passée de 6,7 % en décembre 2022 à 7,7 % en décembre 2023. Mais les analystes rappellent que cela ne suggère pas nécessairement un afflux de nouveaux utilisateurs de Bing. L'utilisation est restée dans la fourchette moyenne de 6 % pendant la majeure partie de 2023 avant d'augmenter vers la fin de l'année et l'utilisation de Bing aux États-Unis a flotté dans cette même zone de 6 à 7 % pendant la majeure partie de la dernière décennie.

    La course aux moteurs de recherche dopés à l'IA

    L'équipe de Bing ajoute des fonctions d'IA pour attirer du monde, mais Google développe également ses propres outils d'IA en vue de contre-attaquer. En mai, Google a lancé une version expérimentale de son moteur de recherche appelée "Search Generative Experience" (SGE), qui fournit des réponses conversationnelles en plus de la liste de liens habituelle.

    L'intégration de l'IA générative dans les moteurs de recherche changera fondamentalement la façon dont les gens recherchent et reçoivent des réponses en ligne. Pour Microsoft, ce changement est l'occasion de propulser Bing vers l'avant. Mais les gains progressifs réalisés jusqu'à présent montrent clairement que les fonctions d'IA ne suffiront peut-être pas à faire de Bing un acteur redoutable sur le marché. Les analystes se montrent sceptiques. « Nous sommes à l'heure de la ruée vers l'or en ce qui concerne l'IA et la recherche », a déclaré Shane Greenstein, économiste et professeur à la Harvard Business School, qui a étudié la commercialisation d'Internet.

    « Pour l'instant, je doute que l'IA fasse bouger l'aiguille, car dans le domaine de la recherche, vous avez besoin d'un volant d'inertie : plus vous effectuez de recherches et meilleures sont les réponses. Google est la seule entreprise à avoir bien établi cette dynamique », a ajouté Greenstein. Toutefois, Greenstein estime que Bing, en tant qu'outsider, dispose d'une plus grande marge de manœuvre pour expérimenter de nouvelles fonctions basées sur l'IA. L'économiste explique : « Google doit veiller à ne pas nuire à sa marque et à son produit lorsqu'il s'agit de tester de nouveaux outils d'IA. Bing peut se permettre de prendre des risques. Il n'a rien à perdre ».

    Cela ne veut pas dire que la domination de Google dans le domaine de la recherche est assurée. Le moteur de recherche fait de plus en plus l'objet de controverses et les utilisateurs se plaignent de la dégradation continue de la qualité des résultats de recherche. Des chercheurs de l'université de Leipzig ont publié une étude qui confirme ce phénomène. L'étude suggère que Google, et ses rivaux Bing et DuckDuckGo sont confrontés à la baisse de la qualité des résultats de recherche. Selon les chercheurs, la baisse de la qualité des SERP serait liée aux mauvaises pratiques d'optimisation utilisées par les sites Web pour améliorer leur référencement.

    Source : rapports sur le comportement de Bing

    Et vous ?

    Quel moteur de recherche utilisez-vous ? Sur quel type d'appareil ?

    La domination de Google dans le secteur justifie-t-elle des pratiques agressives de la part de ses concurrents ?

    Quelles innovations pourraient permettre à Bing de rivaliser efficacement avec Google sans recourir à des pratiques trompeuses ?

    Les moteurs de recherche alternatifs ont-ils encore une chance de s'imposer dans un marché aussi consolidé ?

    Microsoft va-t-il trop loin en cherchant à profiter de la confusion des utilisateurs ?

    Les utilisateurs ont-ils une part de responsabilité dans leur propre vigilance sur Internet ? Est-il acceptable pour une entreprise de capitaliser sur l’inattention ou l’habitude des internautes ?
    Contribuez au club : Corrections, suggestions, critiques, ... : Contactez le service news et Rédigez des actualités

Discussions similaires

  1. Réponses: 1
    Dernier message: 12/10/2023, 20h35
  2. Réponses: 3
    Dernier message: 28/02/2020, 10h35
  3. Réponses: 4
    Dernier message: 17/03/2017, 07h53
  4. Comment ouvrir son Programme sans utiliser Dev-C++?
    Par Neferious dans le forum Dev-C++
    Réponses: 8
    Dernier message: 21/07/2008, 15h22
  5. Réponses: 1
    Dernier message: 23/05/2007, 17h39

Partager

Partager
  • Envoyer la discussion sur Viadeo
  • Envoyer la discussion sur Twitter
  • Envoyer la discussion sur Google
  • Envoyer la discussion sur Facebook
  • Envoyer la discussion sur Digg
  • Envoyer la discussion sur Delicious
  • Envoyer la discussion sur MySpace
  • Envoyer la discussion sur Yahoo