IdentifiantMot de passe
Loading...
Mot de passe oublié ?Je m'inscris ! (gratuit)
Navigation

Inscrivez-vous gratuitement
pour pouvoir participer, suivre les réponses en temps réel, voter pour les messages, poser vos propres questions et recevoir la newsletter

  1. #61
    Membre extrêmement actif Avatar de OrthodoxWindows
    Homme Profil pro
    Étudiant
    Inscrit en
    Novembre 2021
    Messages
    1 287
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : France, Drôme (Rhône Alpes)

    Informations professionnelles :
    Activité : Étudiant

    Informations forums :
    Inscription : Novembre 2021
    Messages : 1 287
    Par défaut
    Citation Envoyé par OuftiBoy Voir le message
    Je suis dubitatif de cette réponse. Si un "produit" (ici l'IA), fournit un "service" défaillant (ici, les réponses que l'IA donne), il faut bien avoir un responsable vers qui pouvoir se retourner pour avoir une "indemnisation" en cas de mauvais fonctionnement dudit "service".

    Parce que sinon, c'est la porte ouverte à tous les abus.
    Cite moi un seul modèle d'IA générative à usage généraliste incapable de générer un contenu potentiellement passible de justice. Sachant que pour être dans le juste, il faut aussi inclure ce qui pourra être illégal dans le futur et dans certains régimes autoritaires.
    De plus, la comparaison avec la pizza avariée n'a aucun sens, car là c'est plutôt le client lui-même qui réclame une pizza avarié. En cas d'IA générative, tenir l'entreprise/le développeur pour responsable de la génération d'un contenu est aussi absurde que de tenir pour responsable le fabricant d'une voiture à cause d'un conducteur ayant délibérément foncé sur un piéton (bah oui, on peu toujours dire que le fabricant avais juste à empêcher que la situation puisse se produire )


    Evidemment, si tu trouve normal que l'IA peut générer n'importe quoi, sans être responsable de rien, je comprend que tu ne vois pas le soucis avec Grok.

    Ce n'est pas le soucis d'une IA ou d'une Autre, c'est tout simplement une "technologie" qui n'est pas encore au point, qu'on balance dans la nature en espérant qu'elle ne produise pas plus de problèmes qu'elle n'en résoud.
    Visiblement tu n'a pas compris mon propos : un modèle open-source, c'est un modèle avec le code-source distribué par le développeur, sous une licence libre. A ce moment là, le développeur ne peux pas être responsable du code qu'il publie, puisque la licence décharge le développeur de responsabilités ! Ou même l'entreprise, si c'est une entreprise qui publie le code source.

    Et la seul fois où un tribunal a réussi à rendre illégal un code source (DeCSS), ça a donné ça.

  2. #62
    Membre confirmé
    Homme Profil pro
    Développeur en systèmes embarqués
    Inscrit en
    Mai 2015
    Messages
    275
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Âge : 54
    Localisation : Belgique

    Informations professionnelles :
    Activité : Développeur en systèmes embarqués

    Informations forums :
    Inscription : Mai 2015
    Messages : 275
    Par défaut Heu, mais non...
    Citation Envoyé par OrthodoxWindows Voir le message
    Cite moi un seul modèle d'IA générative à usage généraliste incapable de générer un contenu potentiellement passible de justice.
    Ben justement, il n'y en a pas, et c'est bien là le soucis. Toutes les IA déconnent à un moment ou l'autre.

    Citation Envoyé par OrthodoxWindows Voir le message
    Sachant que pour être dans le juste, il faut aussi inclure ce qui pourra être illégal dans le futur et dans certains régimes autoritaires.[/B]
    Tu connais peut-être le futur , tu connais peut-être madame Irma , moi pas. Si déjà les IA Générative pouvaient sortir quelque chose qui est correcte/légal dans le présent, ça serait déjà pas mal, mais ce n'est pas encore le cas. Je serais le premier à être contant que l'IA aide l'humain a être débarrassé de certaines tâches sans grand intérêt, mais ce n'est pas encore le cas. J'aimerais que le FSD de Tesla soit aussi bon que ce qui est promis, mais ce n'est pas le cas.

    Citation Envoyé par OrthodoxWindows Voir le message
    De plus, la comparaison avec la pizza avariée n'a aucun sens, car là c'est plutôt le client lui-même qui réclame une pizza avarié.
    Que dire, as-tu vraiment lu ma réponse précédente ? Je parlais d'un gars qui va dans un resto, commande un steak au poivre, mais reçois une pizza avariée. Je ne vois pas comment tu peux dire que c'est le client qui a demandé une pizza avariée.

    Citation Envoyé par OrthodoxWindows Voir le message
    En cas d'IA générative, tenir l'entreprise/le développeur pour responsable de la génération d'un contenu est aussi absurde que de tenir pour responsable le fabricant d'une voiture à cause d'un conducteur ayant délibérément foncé sur un piéton (bah oui, on peu toujours dire que le fabricant avais juste à empêcher que la situation puisse se produire )
    Désolé, mais il me semble que tu t'égard. Il n'y a aucun rapport. Dans le cas que tu cites, bien sûr que le vendeur de la voiture n'est pas responsable, je n'ai jamais dis ou même suggérer cela.

    Si le conducteur conduit la voiture vers un piéton volontairement, c'est lui le responsable.
    Par contre, si en tournant le volant à droite, la voiture va à gauche, ce n'est pas le conducteur qui est responsable, mais bien le constructeur.

    Quand un humain fait une erreur, il est en responsable.
    Quand une IA fait une erreur (on parle d'hallucination pour adoucir le soucis), elle est responsable, et ceux qui l'on vendue le sont.

    Citation Envoyé par OrthodoxWindows Voir le message
    Visiblement tu n'a pas compris mon propos : un modèle open-source, c'est un modèle avec le code-source distribué par le développeur, sous une licence libre. A ce moment là, le développeur ne peux pas être responsable du code qu'il publie, puisque la licence décharge le développeur de responsabilités ! Ou même l'entreprise, si c'est une entreprise qui publie le code source.
    Merci, je sais ce qu'est l'open-source Mais je ne vois pas ce que ça change. Je ne parle pas d'un projet lambda ou de candy-crush. Si pour se dédouaner de toute responsabilité, il suffit d'écrire un petit mot disant qu'on est pas responsable, je vais vite écrire un petit mot en bas de ma déclaration d'impôt disant que je ne suis pas responsable de l'avoir mal remplie, et d'avoir éluder l'impôt, et hop, tu crois que ça va passer crème ?

    Donc tu es d'accord que personne n'est jamais responsable de rien ? Si je met en vente un produit qui ne fait pas ce qu'il est sensé faire, je ne suis pas responsable ? Donc pout toi, le Boeing MAX qui a causé la mort de centaines de personnes parce mal conçu, y'a pas de responsable ? Parce que les plans de l'avion sont disponibles sur le net ? Vas dire ça aux familles des défunts. Il y a quelques années, Perrier avait fourni un lot de bouteille avec de l'essence dedans, et bien oui, ils étaient responsables et l'on reconnu et augmenté la sécurité de leur chaine de production. Mais toi, avant de boire quoi que ce soit, tu fais une analyse chimique du produit ? Et tu fais ça dans tous les domaines ? Chapeau tu es omniscient.

    BàT et Peace & Love.

  3. #63
    Membre extrêmement actif Avatar de OrthodoxWindows
    Homme Profil pro
    Étudiant
    Inscrit en
    Novembre 2021
    Messages
    1 287
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : France, Drôme (Rhône Alpes)

    Informations professionnelles :
    Activité : Étudiant

    Informations forums :
    Inscription : Novembre 2021
    Messages : 1 287
    Par défaut
    Le problème est qu'on ne parle pas du même problème.
    Tu semble parler des hallucinations, je parle du contenu potentiellement illégal que peu générer une IA après demande de l’utilisateur en ce sens.

    Je n'ai pas compris immédiatement, car le dernier article ne parle pas des hallucinations, hors c'était celui ci que je commentais au départ.
    Concernant l'open-source : techniquement, une hallucination ne peux pas être contenu dans un code brut. Cela survient après, lors de la phase d'apprentissage. Le "responsable" est donc celui qui a formé le modèle, jamais le développeur.

  4. #64
    Membre confirmé
    Homme Profil pro
    Développeur en systèmes embarqués
    Inscrit en
    Mai 2015
    Messages
    275
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Âge : 54
    Localisation : Belgique

    Informations professionnelles :
    Activité : Développeur en systèmes embarqués

    Informations forums :
    Inscription : Mai 2015
    Messages : 275
    Par défaut Re-Bonjour
    Citation Envoyé par OrthodoxWindows Voir le message
    Le problème est qu'on ne parle pas du même problème.
    C'est possible, c'est en tout cas agréable de pouvoir discuter sereinement.

    Citation Envoyé par OrthodoxWindows Voir le message
    Tu semble parler des hallucinations, je parle du contenu potentiellement illégal que peu générer une IA après demande de l’utilisateur en ce sens.
    Le soucis, c'est que la personne qui fait une demande à l'IA, sans aucune volonté de tomber dans l'illégalité, n'est pas forcément en mesure de savoir si le résultat qu'elle obtient est légal ou pas.

    Oui, les hallucinations sont la preuve que l'IA n'est pas encore prête a être utilisée partout. Il y'a certes des "niches" où elle peut déjà rendre service, comme par exemple dans l'analyse de radiographie pour détecter des tumeurs. Mais ce n'est pas de l'IA, ça existe depuis un bon moment, c'est juste un traitement d'images, qui peut aider à faire un meilleur diagnostic.

    Citation Envoyé par OrthodoxWindows Voir le message
    Je n'ai pas compris immédiatement, car le dernier article ne parle pas des hallucinations, hors c'était celui ci que je commentais au départ. Concernant l'open-source : techniquement, une hallucination ne peux pas être contenu dans un code brut. Cela survient après, lors de la phase d'apprentissage. Le "responsable" est donc celui qui a formé le modèle, jamais le développeur.
    C'est effectivement un autre problème avec l'IA. Elle ne peut fournir en sortie qu'une probabilité qui dépend de la qualité des données qu'elle a reçu lors de son apprentissage. Et c'est un très gros problème qui a de multiple facettes:

    • - D'où viennent ces données ? De ce que j'en sais, on bourre l'IA d'une floppée de contenus obtenu sur Internet, et très souvent illégalement. L'ancien PDG de Google a même déclarer qu'il fallait "voler" ces informations, et que ce qu'elle rapporteront suffira largement a payer des avocats pour régler les éventuelles soucis de droit d'auteur. Je trouve que c'est des méthodes de voyous. Le plus "riche", le plus "fort', imposera sa loi aux autres. Ce n'est pas un monde dans lequel je veux voir grandir mes enfants et petit-enfants.

      - Ces données sont elles "validées" avant d'être injectées dans le système d'apprentissage ? La masse de donnée qu'il faut pour entrainer une IA est tellement énorme que c'est impossible a faire. Il faudrait des milliers de spécialistes sur des milliers de sujets. Ce n'est humaine pas possible.

      - Si l'IA est principalement fournie d'info venue d'internet, sans vérification, ça ne m'étonne pas qu'elle hallucine assez souvent. Et ça peut être très dangereux pour la personne qui obtient ces informations. Elle ne sait peut-être pas détecter que si la réponse est fausse et même très dangereuse si elle suit aveuglément ce que lui répond une IA.

      - Il y'a des bonnes infos sur internet, et d'autres pour le moins douteuse. On peut trouver la bonne info, dans un domaine particulier, si seulement on maîtrise déjà assez bien le sujet. Quand je vais sur StackOverflow, je sais ce que je cherche et j'ai assez d'expérience pour "trouver" la bonne information, parce que j'ai de solides bases niveau développement. Par contre, si je dois chercher des informations sur une question de chimie, j'aurais bien du mal a m'informer correctement et de comprendre ce que je lis.

      - Pareil pour le code généré par l'IA. Il faut savoir "remarquer" quand l'IA déconne. Nous, en temps que développeur, on peut éventuellement remarquer ces erreurs, mais même le meilleur développeur au monde ne peux pas connaître et maîtrisé tous les langages existant.

      - Concernant les "droits d'auteur", et savoir si l'information peut être utilisée ou pas, cela ne doit pas être évident non plus, et ça peut mettre des entreprises dans des galères pas possible, car celui qui "gagnera" sera à 99% celui qui sait se payer les meilleurs avocats, ou faire trainer les procédures pour étouffer lentement une petite boite par rapport à des des GAFAM.

      - Si on parle de développements, si on se met à se "reposer" sur l'IA, il n'y aura bien vite plus assez de développeurs assez compétant pour vérifier le code produit. Parce que ce n'est plus du développement, ça n'a plus rien de très passionnant, et ça n'attirera plus personne.

      - Perso, si le métier de développeur devient un simple métier de "surveillance", ça enlève toute ce qui est intéressant dans le métier, et ce sera sans moi.


    Quand à savoir qui est responsable de quoi en cas de gros soucis, ce sera encore une fois une bataille d'avocats, que seul les plus gros pourront en supporter le coup. Quand Einstein a fait ses traveaux sur l'énergie atomique, je ne pense pas que son intention était de fabriquer des bombes atomique et encore moins de pulvériser des milliers d'innocents. Il n'est pas responsable. Le développeur qui "construit" une méthode permettant une forme d'IA n'est pas responsable non plus, mais la personne qui va utiliser ce travail, cette méthode, est lui responsable. Et le monde est ainsi fait que ce sont rarement les vrais responsables qui chute. On trouve toujours bien un pauvre gus pour tout lui mettre sur le dos.

    Il y'a aussi le problème que des "exemples" ont été mis en ligne il y a plus de 10 ou même 20 ans, pour des raisons disons de partage de savoir, avec une idée "académique". Que tous cela soit pompé 20 ans plus tard et en plus revendu, c'est une pillule difficile a avaler pour celui qui a prit le temps de poster des informations de qualité.

    Un autre "effet de bord", c'est que puisse que l'on sait maintenant que ce qu'on poste sera utilisé par d'autres à des fins mercantile, l'information de qualité deviendra de moins en moins disponible, les gens n'aime pas trop qu'on se foute de leur geule. C'est la panique chez StackOverflow, car plusieurs très bon dévellopeurs y postaient des réponses de qualité, gratuitement, et que maintenant StackOverflow essaye de moneyer tout ce savoir. Il empeche même que l'on efface des réponses ou qu'on supprime un compte. C'est encore une fois des méthodes que je ne peux cautionner.

    Enfin, puisque l'IA ne sait que "reproduire" sur base d'un "existant", le risque est grand que tout deviennent fade et sans évolutions.

    Voilà mon avis sur l'IA qui n'engage que moi.

    BàT et comme toujours, Peace and Love.

  5. #65
    Membre prolifique Avatar de Jon Shannow
    Homme Profil pro
    Responsable de service informatique
    Inscrit en
    Avril 2011
    Messages
    4 629
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Âge : 61
    Localisation : France, Ille et Vilaine (Bretagne)

    Informations professionnelles :
    Activité : Responsable de service informatique
    Secteur : High Tech - Électronique et micro-électronique

    Informations forums :
    Inscription : Avril 2011
    Messages : 4 629
    Par défaut
    De ce que je lis, je pense que la notion de "responsabilité" n'est pas tout à fait correctement détaillée.

    Au niveau des IAs produisant du contenu, il y a 2 responsabilités différentes.

    1) La responsabilité des sociétés mettant à disposition un modèle d'IA qui produit des contenus faux et trompeur pouvant avoir de grave conséquence sur la vie des personnes. Je prendrais en exemple les plaidoiries d'avocats avec de faux jugements en exemple (même si on peut considérer que l'avocat aurait du vérifier, le fait que le modèle d'IA "invente" des jugements, alors que cela ne lui est pas demandé, est une défaillance du système), mais aussi le cas de ce journaliste allemand qui se voit accuser des crimes qu'il a couvert en tant que journaliste (lien). Dans ces cas, la société mettant le logiciel d'IA à disposition est responsable du dysfonctionnement de son outil.

    2) La personne qui utilise l'IA pour produire volontairement une information fausse (cas des images truquées produites par le clan Trump) et qui la diffuse. Dans ce cas, c'est la personne qui diffuse ces données qui est responsable, et non le producteur du logiciel d'IA.

    Pour repartir sur une comparaison avec les voitures. En effet, une personne provoquant un accident au volant de sa voiture est responsable. Mais, si la voiture a eu un comportement anormal du à une malfaçon, provoquant l'accident, alors le constructeur est responsable.

    JS

  6. #66
    Membre confirmé
    Homme Profil pro
    Développeur en systèmes embarqués
    Inscrit en
    Mai 2015
    Messages
    275
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Âge : 54
    Localisation : Belgique

    Informations professionnelles :
    Activité : Développeur en systèmes embarqués

    Informations forums :
    Inscription : Mai 2015
    Messages : 275
    Par défaut Bonjour à tous
    Bonjour Jon,

    Citation Envoyé par Jon Shannow Voir le message
    De ce que je lis, je pense que la notion de "responsabilité" n'est pas tout à fait correctement détaillée.
    Je te l'accorde bien volonté, je ne suis ni juriste, ni avocat. Je ne suis qu'un développeur.

    Citation Envoyé par Jon Shannow Voir le message
    Au niveau des IAs produisant du contenu, il y a 2 responsabilités différentes.
    Il y en a peut-être plus encore, si on compte les intermédiaires, le développeur qui a construit l'IA, celui qui lui a demandé de le faire, celui qui a "alimenté" celle ci en donnée (et ce n'est pas fait à la main ), celui qui la vend, celui qui l'achète, celui qui ... etc etc

    Citation Envoyé par Jon Shannow Voir le message
    1) La responsabilité des sociétés mettant à disposition un modèle d'IA qui produit des contenus faux et trompeur pouvant avoir de grave conséquence sur la vie des personnes. Je prendrais en exemple les plaidoiries d'avocats avec de faux jugements en exemple (même si on peut considérer que l'avocat aurait du vérifier, le fait que le modèle d'IA "invente" des jugements, alors que cela ne lui est pas demandé, est une défaillance du système), mais aussi le cas de ce journaliste allemand qui se voit accuser des crimes qu'il a couvert en tant que journaliste (lien). Dans ces cas, la société mettant le logiciel d'IA à disposition est responsable du dysfonctionnement de son outil.
    C'est bien là un énorme problème, un utilisateur ne peut pas forcément savoir si la réponse que donne l'IA est valide ou pas. En consultant une autre IA ?

    Certains peuvent le faire dans certains domaine, mais dans d'autres domaines, c'est impossible de savoir.

    Rien qui ne sort de l'IA n'est certifié, et il va vite devenir impossible de distinguer le vrai du faux. Si chaque utilisateur doit s'assurer que tout ce que l'IA répond est "vrai", la situation n'est pas tenable. Généralement, on recherche une réponse parque l'on en connait pas la réponse, et de cela découle le fait qu'on ne peux plus rien vérifier. C'est un danger énorme.


    Le fait que des GAFAM se dédouanent eux-mêmes de toute "responsabilité" en "pondant" des "licences" qui font des pages et des pages et que le commun des mortels ne peux pas comprendre, c'est quelque chose que j'ai du mal a accepter. Quand une société ne sait plus distinguer le vrai du faux, le bien du mal, cette société ne peut que glisser vers l'arbitraire.

    On me dira que c'est pareil avec une presse qui "oriente" la pensée de ses lecteurs, mais ç'est à une moindre échelle et ça peut être vérifié et contredis. Un des soucis ici, c'est la déferlante de possibilité et la "masse" d'info qu'il faudrait pouvoir faire "valider" par des humains, et ce n'est pas possible non plus.

    Il n'y a pas de solution.

    Citation Envoyé par Jon Shannow Voir le message
    2) La personne qui utilise l'IA pour produire volontairement une information fausse (cas des images truquées produites par le clan Trump) et qui la diffuse. Dans ce cas, c'est la personne qui diffuse ces données qui est responsable, et non le producteur du logiciel d'IA.

    Pour repartir sur une comparaison avec les voitures. En effet, une personne provoquant un accident au volant de sa voiture est responsable. Mais, si la voiture a eu un comportement anormal du à une malfaçon, provoquant l'accident, alors le constructeur est responsable.
    Je suis bien d'accord, mais la même fausse info peut être produite involontairement, et la diffuser. Les problèmes devront être "tranché" par les avocats, et le commun des mortel, même en vendant sa maison ou en faisant un crédit mirobolant n'a pas la moindre chance de gagner un procès contre un GAFAM.

    Et qui va savoir si l'acte était volontaire ou pas ? Sur quelle base vas-ton décider ? Une IA ?

    L'exemple de la voiture et plus simple à comprendre, et on peut "remonter" jusqu'au constructeur et faire tout un tas d'analyse pour expliquer ce qui c'est produit, et comment faire pour que ça ne se reproduise plus.

    Mais dans le cas d'une IA (qu'elle ai été utilisée volontairement (ou pas) pour générer un fake), je ne vois pas bien comment on pourrait "inspecter" cette IA pour comprendre l'erreur. C'est une boite noir dont on ne sait pas comment elle a été alimentées, par qui, dans quel but, puis qui produit une réponses on ne sait pas trop comment (par statistique/probabilité) dont on n'est pas capable de savoir si la réponse est vrai ou fausse.

    Il a y de tout temps eu des faussaires, mais là encore ça restait limité. Même des "experts" en oeuvre d'art (style tableau de Rubens) peuvent être en difficulté pour savoir si ce qu'ils ont devant les yeux est un faux ou pas. Alors, je pense que demander à "monsieur et madame tout le monde" (la Michu)
    de pouvoir distinguer le vrai du faux est impossible.

    Citation Envoyé par Jon Shannow Voir le message
    JS
    BàT et Peace & Love.

  7. #67
    Membre prolifique Avatar de Jon Shannow
    Homme Profil pro
    Responsable de service informatique
    Inscrit en
    Avril 2011
    Messages
    4 629
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Âge : 61
    Localisation : France, Ille et Vilaine (Bretagne)

    Informations professionnelles :
    Activité : Responsable de service informatique
    Secteur : High Tech - Électronique et micro-électronique

    Informations forums :
    Inscription : Avril 2011
    Messages : 4 629
    Par défaut
    Pour moi, il y a une différence entre :
    -Le mec qui demande "Produit moi une image de Taylor Swift avec une pancarte appelant à voter Trump"
    -Le mec qui demande "Trouve moi les images de chanteuses avec une pancarte appelant à voter Trump"

    Si dans le second cas, l'IA génère des photos de chanteuses n'ayant jamais brandies de pancarte appelant à voter Trump, alors c'est la société produisant l'IA qui est responsable. Dans le premier cas, c'est le demandeur qui est responsable, l'IA répondant à sa demande, c'est à lui de ne pas la publier, ou de la publier en indiquant bien que c'est un faux.

  8. #68
    Membre confirmé
    Homme Profil pro
    Développeur en systèmes embarqués
    Inscrit en
    Mai 2015
    Messages
    275
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Âge : 54
    Localisation : Belgique

    Informations professionnelles :
    Activité : Développeur en systèmes embarqués

    Informations forums :
    Inscription : Mai 2015
    Messages : 275
    Par défaut Je suis bien d'accord...
    Citation Envoyé par Jon Shannow Voir le message
    Pour moi, il y a une différence entre :
    -Le mec qui demande "Produit moi une image de Taylor Swift avec une pancarte appelant à voter Trump"
    -Le mec qui demande "Trouve moi les images de chanteuses avec une pancarte appelant à voter Trump"

    Si dans le second cas, l'IA génère des photos de chanteuses n'ayant jamais brandies de pancarte appelant à voter Trump, alors c'est la société produisant l'IA qui est responsable. Dans le premier cas, c'est le demandeur qui est responsable, l'IA répondant à sa demande, c'est à lui de ne pas la publier, ou de la publier en indiquant bien que c'est un faux.
    Oui, je vois ton point de vue, je le comprend, mais le soucis c'est qu'on est pas dans un monde binaire où c'est 0 ou 1.

    Qu'est-ce qui me certifie qu'en disant Produit moi une image de Taylor Swift avec une pancarte appelant à voter Trump, que le gars ne s'est pas juste mal exprimé, il aurait pu demander "Y'a-t-il des images de chanteuses...", il l'IA pourrait bien lui répondre avec une fausse image produite par quelqu'un d'autre, puisque toutes ces bonnes ou mauvaises info sont "dans le cloud" et que l'IA est "fournie" d'informations étant déjà potentiellement fausse au départ ?

    Il y'a mille façon de demander la même chose. Et l'IA ne sais comprendre toutes ces nuances. Il peut même dire "Produit moi..." volontairement, sans être coupable de rien du tout. Il est peut-être journaliste et a besoin de prouver à ses lecteurs que les IA peuvent pondre tout et n'importe quoi. Ou il veux s'en servir pour faire une simple caricature. Pour se moquer par exemple de gens qui disent une choses, mais font le contraire. Et un jour son service "cloud" est hacké, son image volée, puis distribuée pour l'exclure du débat.

    C'est tout ce flou qui est dangereux, et surtout la masses énorme d'infos à traiter, et y'il n'y a pas de filtre possible.
    De plus, ayant déjà pompé tout le web, certaines IA sont fournie maintenant en entrée par des "info" qu'elles ont elles-mêmes générée.

    Ce n'est que mon avis, je ne dis pas que j'ai raisons. Mais tout ceci est bien dangereux pour le peut de démocratie qu'il nous reste.

    BàT et Peace & love.

  9. #69
    Membre prolifique Avatar de Jon Shannow
    Homme Profil pro
    Responsable de service informatique
    Inscrit en
    Avril 2011
    Messages
    4 629
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Âge : 61
    Localisation : France, Ille et Vilaine (Bretagne)

    Informations professionnelles :
    Activité : Responsable de service informatique
    Secteur : High Tech - Électronique et micro-électronique

    Informations forums :
    Inscription : Avril 2011
    Messages : 4 629
    Par défaut
    Citation Envoyé par OuftiBoy Voir le message
    Oui, je vois ton point de vue, je le comprend, mais le soucis c'est qu'on est pas dans un monde binaire où c'est 0 ou 1.

    Qu'est-ce qui me certifie qu'en disant Produit moi une image de Taylor Swift avec une pancarte appelant à voter Trump, que le gars ne s'est pas juste mal exprimé, il aurait pu demander "Y'a-t-il des images de chanteuses...", il l'IA pourrait bien lui répondre avec une fausse image produite par quelqu'un d'autre, puisque toutes ces bonnes ou mauvaises info sont "dans le cloud" et que l'IA est "fournie" d'informations étant déjà potentiellement fausse au départ ?

    Il y'a mille façon de demander la même chose. Et l'IA ne sais comprendre toutes ces nuances. Il peut même dire "Produit moi..." volontairement, sans être coupable de rien du tout. Il est peut-être journaliste et a besoin de prouver à ses lecteurs que les IA peuvent pondre tout et n'importe quoi. Ou il veux s'en servir pour faire une simple caricature. Pour se moquer par exemple de gens qui disent une choses, mais font le contraire. Et un jour son service "cloud" est hacké, son image volée, puis distribuée pour l'exclure du débat.

    C'est tout ce flou qui est dangereux, et surtout la masses énorme d'infos à traiter, et y'il n'y a pas de filtre possible.
    De plus, ayant déjà pompé tout le web, certaines IA sont fournie maintenant en entrée par des "info" qu'elles ont elles-mêmes générée.

    Ce n'est que mon avis, je ne dis pas que j'ai raisons. Mais tout ceci est bien dangereux pour le peut de démocratie qu'il nous reste.

    BàT et Peace & love.
    Je suis d'accord avec toi. Rien n'est tout blanc ou tout noir. Mais, je pense que la responsabilité des sociétés fournissant un modèle d'IA doit quand même exister et permettre de les condamner si leur outil produit des résultats faux, trompeurs, mensongers nuisant à des une ou plusieurs personnes. Ensuite, je pense aussi que toute personne publiant le résultat d'un modèle d'IA doit signaler que ce qu'il publie provient d'une IA et que cela est potentiellement faux.

    Mais bon, tout cela n'est pas simple, et je ne suis pas juriste.

  10. #70
    Membre confirmé
    Homme Profil pro
    Développeur en systèmes embarqués
    Inscrit en
    Mai 2015
    Messages
    275
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Âge : 54
    Localisation : Belgique

    Informations professionnelles :
    Activité : Développeur en systèmes embarqués

    Informations forums :
    Inscription : Mai 2015
    Messages : 275
    Par défaut Tout a fait d'accord..
    Citation Envoyé par Jon Shannow Voir le message
    Je suis d'accord avec toi. Rien n'est tout blanc ou tout noir. Mais, je pense que la responsabilité des sociétés fournissant un modèle d'IA doit quand même exister et permettre de les condamner si leur outil produit des résultats faux, trompeurs, mensongers nuisant à des une ou plusieurs personnes. Ensuite, je pense aussi que toute personne publiant le résultat d'un modèle d'IA doit signaler que ce qu'il publie provient d'une IA et que cela est potentiellement faux.

    Mais bon, tout cela n'est pas simple, et je ne suis pas juriste.
    Oui, ce serait un bon début pas trop difficile a mettre dans une loi, que toute personne distribuant un contenu générer par l'IA soit obligé de le mentionner. Même chose pour le code générer par l'IA, il faudrait précisément ET clairement (pas au fond d'une mention de licences de 300 pages), que l'IA a fournit une partie du code.

    Je dirais même plus, les éditeurs devraient être obligés d'indiquer le code open-source qu'ils ont utilisés, même s'il est dispo librement et volontairement distribué par son/ses créateurs. Ne fusse que pour remercier les auteurs du produit qu'ils vendent.

    Mais oui, je pense que tout cela sera très difficile a vérifier, a contrôler, etc.

    En tout cas, il faut interdire au GAFAM de s'auto déresponsabiliser, c'est trop facile.

    BàT. et Peace & Love.

  11. #71
    Chroniqueur Actualités
    Avatar de Anthony
    Homme Profil pro
    Rédacteur technique
    Inscrit en
    Novembre 2022
    Messages
    1 480
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : France, Gironde (Aquitaine)

    Informations professionnelles :
    Activité : Rédacteur technique

    Informations forums :
    Inscription : Novembre 2022
    Messages : 1 480
    Par défaut La société X d'Elon Musk lance le déploiement gratuit et limité du chatbot non censuré Grok AI
    La plateforme X d'Elon Musk déploie de façon gratuite et limitée le chatbot IA non censuré Grok, pour aider au codage, analyser les messages et répondre en temps réel sur X, sans le politiquement correct imposé

    Jusqu'à présent, le réseau de médias sociaux X a réservé son chatbot Grok AI à ses abonnés, mais des informations font état d'un changement imminent. La plateforme se prépare à rendre certains aspects de Grok accessibles à tous les utilisateurs, en commençant par un essai en Nouvelle-Zélande.

    Pour rappel, xAI d'Elon Musk a lancé la version bêta de Grok-2 en août 2024, avec l'ajout de la génération d'images sur X. Les nouveaux modèles d'IA Grok-2 et Grok-2 mini peuvent donc désormais générer des images sur le réseau social X et offrent des capacités d'analyse d'images ajoutées suite à une mise à jour effectuée en octobre dernier. Bien que l'accès à Grok ait été limité aux utilisateurs Premium et Premium+ sur X, la société d'IA de Musk a également mis les deux modèles à la disposition des développeurs via son API d'entreprise.

    L'essai pilote de Grok AI en Nouvelle-Zélande permettra à la plateforme X d'évaluer le fonctionnement de son offre avec un plus grand nombre d'utilisateurs, et d'apprendre comment un public plus large utilisera sa solution d'IA.

    Au cours des derniers jours, plusieurs chercheurs et développeurs sur X ont annoncé le lancement de Grok AI en donnant peu d'informations sur le fonctionnement de la version gratuite.

    L'un d'entre eux a indiqué que les restrictions initiales se traduisaient par un maximum de 10 requêtes toutes les deux heures avec le modèle Grok-2, jusqu'à 20 requêtes toutes les deux heures avec le modèle Grok-2 mini, et que seules trois requêtes d'analyse d'image seraient autorisées par jour.


    Pour utiliser le service Grok gratuitement, l'utilisateur doit disposer d'un compte X datant d'au moins sept jours et d'un numéro de téléphone lié à son compte.

    Que peut faire le chatbot conçu par xAI ?

    À ne pas confondre avec la startup Groq, spécialisée dans la fabrication de puces d'IA, le Grok d'Elon Musk a été conçu par sa société de recherche xAI, le service étant principalement intégré à la plateforme X.

    Avec un méga-cluster de 100 000 GPU Nvidia pour entraîner Grok, l'offre de xAI peut fournir une analyse détaillée d'un compte ou d'un message sur le réseau. Elle peut également coder, répondre à d'autres requêtes en utilisant un accès Internet en temps réel, et réagir aux nouvelles générales sur X.

    L'ouverture de Grok à un plus grand nombre d'utilisateurs renforcera son attrait et sa portée, et l'entreprise pourrait envisager de poursuivre sa croissance afin de concurrencer des acteurs tels que ChatGPT, Claude et Gemini.

    Au-delà de la Nouvelle-Zélande, un nouveau déploiement de l'offre gratuite a été envisagé, mais à ce stade, on ne sait pas encore quelles régions en bénéficieront, ni quand.

    Notons toutefois que l'IA conversationnelle d'Elon Musk, conçue pour être à la fois humoristique et provocante, a rapidement attiré l'attention pour ses réponses sarcastiques et ses prises de position surprenantes. Selon une récente étude du Center for Countering Digital Hate, une organisation qui lutte contre la désinformation en ligne, Grok AI est un désastre pour la démocratie, car l'IA d'Elon Musk intégrée à X n'a pas de garde-fous pour générer de la désinformation électorale. L'enquête a notamment révélé que des utilisateurs créent de fausses images liées aux élections à l'aide du robot Grok AI puis les partagent sur X et que la plateforme d'Elon Musk ne respecte pas ses propres règles pour l'empêcher. Les défis liés à la désinformation et à l’éthique demeurent donc des obstacles à surmonter.

    Source : xAI

    Et vous ?

    Quel est votre avis sur le sujet ?
    Trouvez-vous cette décision stratégique de la société xAI d'Elon Musk crédible ou pertinente ?
    Pensez-vous que le déploiement gratuit de Grok influencera l'engagement et la satisfaction des utilisateurs sur la plateforme X ?

    Voir aussi :

    xAI d'Elon Musk lance Grok-2 en beta avec l'ajout de génération d'images sur X, Grok-2 accepte de faire des illustrations politiques et de vraies personnes, alors que ChatGPT refuse

    Elon Musk déclare que Grok 2, le chatbot prétendument "anti-woke" qui s'est avéré surtout créer des infox et des vulgarités, sortira en Août, suivi de Grok 3 d'ici la fin de l'année

    La startup xAI d'Elon Musk lève 6 milliards de dollars lors d'un nouveau tour de financement de série B, l'argent servira à commercialiser les produits de xAI, dont Grok, un rival de ChatGPT, formé sur X.com
    Contribuez au club : corrections, suggestions, critiques, ... Contactez le service news et Rédigez des actualités

  12. #72
    Communiqués de presse

    Femme Profil pro
    Traductrice Technique
    Inscrit en
    Juin 2023
    Messages
    2 054
    Détails du profil
    Informations personnelles :
    Sexe : Femme
    Localisation : France

    Informations professionnelles :
    Activité : Traductrice Technique

    Informations forums :
    Inscription : Juin 2023
    Messages : 2 054
    Par défaut De nouvelles conditions de service permettent à X d'utiliser vos données pour entraîner son IA
    De nouvelles conditions de service permettent à X d'utiliser vos données pour entraîner son IA : les messages textuels, les photos et les vidéos sont utilisés pour l'entraînement de Grok, le chatbot d'Elon Musk.

    La plateforme de médias sociaux X vient de mettre à jour ces conditions de service. Selon la mise à jour, X peut utiliser vos données pour entraîner son IA, que ce soit les messages textuels, les photos et les vidéos. Selon les termes, X pourrait également vendre vos données à d'autres entreprises pour former leurs propres chatbots

    Lancée par Elon Musk, la plateforme de médias sociaux X utilise Grok, son chatbot basé sur l’intelligence artificielle, pour analyser les données des utilisateurs. Cependant, ce processus est configuré par défaut en mode "opt-out", ce qui signifie que Grok utilise vos publications à moins que vous ne l’ayez expressément désactivé.

    Cette approche a suscité l’indignation de certains utilisateurs. De plus, X n’a pas informé les utilisateurs de ce changement ni sollicité leur consentement avant d’entraîner Grok AI sur leurs publications. Mais à partir du 15 novembre, une nouvelle clause des conditions d'utilisation de la plateforme de médias sociaux X autorisera par défaut l'utilisation des données des utilisateurs pour entraîner son chatbot d'intelligence artificielle (IA).

    Les messages textuels, les photos et les vidéos peuvent désormais être utilisés pour entraîner Grok, le chatbot d'Elon Musk. Grok est une IA générative à grand modèle de langage créée par xAI, conçue pour être provocante, nerveuse et "rebelle", et peut accéder à des données sur X en temps réel.

    Les conditions d'utilisation mises à jour stipulent ce qui suit : "En soumettant, en publiant ou en affichant du contenu sur ou par l'intermédiaire de [X], les utilisateurs accordent les droits d'analyser le texte et les autres informations que vous fournissez [...] à des fins d'utilisation et d'entraînement de nos modèles d'apprentissage automatique et d'intelligence artificielle, qu'ils soient génératifs ou d'un autre type."

    Il est également suggéré que X pourrait vendre vos données à d'autres entreprises pour former leurs propres chatbots, en précisant que les utilisateurs accordent les droits "de mettre le contenu soumis à ou par l'intermédiaire de [X] à la disposition d'autres entreprises, organisations ou individus".

    Nom : 1.jpg
Affichages : 3990
Taille : 86,6 Ko

    À la suite de ce changement, le réseau social concurrent BlueSky a connu une augmentation massive du nombre de nouveaux utilisateurs, affirmant avoir accueilli plus d'un million de nouveaux comptes depuis la récente élection présidentielle américaine. Blue Sky est actuellement en tête des classements de l'app store au Royaume-Uni, tout comme un autre concurrent de X, Threads. X n'est actuellement pas dans le top 50 des applications.

    Il existe actuellement une case à cocher dans les paramètres de X qui suggère que vous pouvez interdire l'utilisation de votre contenu à des fins de formation Grok. Allez dans Paramètres > Confidentialité et sécurité > Partage des données et personnalisation > Grok pour trouver la case à cocher et la désélectionner.

    Toutefois, il se peut que cela ne serve à rien. Rien dans les conditions de service mises à jour ne mentionne cette option apparente, ce qui signifie qu'il n'y a aucune protection juridique si X décide de s'emparer des données des utilisateurs qui ont choisi de ne pas cocher cette case.

    La seule façon d'être vraiment sûr que vos données ne sont pas utilisées pour former le chatbot nerveux de xAI est de désactiver votre compte. De nombreux utilisateurs prennent des mesures en ce sens, notamment en téléchargeant une archive de leurs messages. En fonction de l'ancienneté du compte et du nombre de messages, cela peut prendre un certain temps.

    Mais la question qui se pose est : quelle sera la conséquence de l'entrainement du chatbot IA Grok sur vos données ? En effet, lorsqu'on a questionné Grok sur son créateur Elon Musk, le chatbot a été très critique à son égard, le qualifiant d'"important diffuseur" de désinformation. Est-ce dû aux données récupérées sur la plateforme X ou à d'autres raisons ? Mais la situation peut inquiéter les plus susceptibles sur leurs identités.

    Source : Condition d'utilisation de la plateforme X

    Et vous ?

    Pensez-vous que cette nouvelle conditionn d'utilisation de X est crédible ou pertinente ?
    Quel est votre avis sur le sujet ?

    Voir aussi :

    Grok AI est un désastre pour la démocratie : l'IA d'Elon Musk intégrée à X n'a pas de garde-fous pour empêcher les utilisateurs de générer de la désinformation électorale, selon une enquête du CCDH

    Les entreprises d'IA sont-elles à court de données pour entraîner leurs modèles après avoir englouti l'ensemble de l'Internet ? Un rapport alerte sur une potentielle pénurie de données

    Meta lance un nouveau bot Meta-ExternalAgent afin d'explorer massivement le web pour obtenir des données d'entraînement de l'IA, en utilisant des moyens sournois pour éviter d'être bloqué
    Publication de communiqués de presse en informatique. Contribuez au club : corrections, suggestions, critiques, ... Contactez le service news et Rédigez des actualités

  13. #73
    Communiqués de presse

    Femme Profil pro
    Traductrice Technique
    Inscrit en
    Juin 2023
    Messages
    2 054
    Détails du profil
    Informations personnelles :
    Sexe : Femme
    Localisation : France

    Informations professionnelles :
    Activité : Traductrice Technique

    Informations forums :
    Inscription : Juin 2023
    Messages : 2 054
    Par défaut xAI vise un million de GPU pour le supercalculateur Colossus à Memphis
    xAI, la startup d'Elon Musk, prévoit d'agrandir son supercalculateur d'IA à Memphis pour qu'il abrite au moins un million de GPU, alors que xAI s'efforce de rivaliser avec des concurrents comme OpenAI.

    xAI vise un million de GPU pour le supercalculateur Colossus à Memphis. Le supercalculateur est utilisé pour former et faire fonctionner le chatbot d'IA de l'entreprise, Grok, dont Musk espère qu'il concurrencera des services tels que ChatGPT d'OpenAI. La ville de Memphis accueillera également Dell, Nvidia et Supermicro, qui fournissent tous des éléments de Colossus.

    En juin 2024, Elon Musk annonçait que xAI, sa société de recherche en IA, allait construire "le plus grand supercalculateur du monde" à Memphis. La Gigafactory of Compute de xAI, un projet de plusieurs milliards de dollars, a pour but de permettre à la société de rivaliser dans la course au développement de l'intelligence artificielle.

    Selon la chambre de commerce de la ville, xAI aurait l'intention d'augmenter la taille de son supercalculateur Colossus à Memphis, dans le Tennessee, pour atteindre un million de GPU. La nouvelle a été révélée lors du déjeuner annuel du président de la Greater Memphis Chamber, au cours duquel les invités ont entendu Brent Mayo, directeur principal de xAI pour la construction de sites et l'infrastructure. Selon la Chambre, Dell, Nvidia et Supermicro s'installent également à Memphis, faisant de la ville "l'épicentre mondial de l'intelligence artificielle".

    Colossus a été lancé au début de l'année, faisant fonctionner 100 000 GPU Nvidia dans un centre de données installé dans une ancienne usine Electrolux. Elon Musk a déclaré en octobre qu'il était prévu de porter ce nombre à 200 000. Le supercalculateur est utilisé pour former et faire fonctionner le chatbot d'IA de l'entreprise, Grok, dont Musk espère qu'il concurrencera des services tels que ChatGPT d'OpenAI.

    Nom : 1.jpg
Affichages : 7425
Taille : 21,0 Ko

    Brent Mayo a déclaré : "À Memphis, nous sommes les pionniers du développement au cœur de l'Amérique. Nous ne nous contentons pas d'être à l'avant-garde ; nous accélérons les progrès à un rythme sans précédent tout en garantissant la stabilité du réseau grâce à la technologie du mégapack".

    Ted Townsend, président-directeur général de la Greater Memphis Chamber, a ajouté : "Lorsque nous avons annoncé, il y a six mois, que xAI s'installerait à Memphis pour Colossus, nous avons reconnu qu'il s'agissait d'un moment décisif. Memphis a fourni la puissance et la vitesse nécessaires non seulement à la croissance et à la prospérité de xAI, mais aussi à d'autres entreprises. Nous sommes ravis d'accueillir Nvidia, Dell et Supermicro dans le 'Digital Delta'."

    Dell, Nvidia et Supermicro fournissent tous des éléments de Colossus. Les détails de leurs investissements respectifs à Memphis n'ont pas été communiqués.

    La Chambre a indiqué qu'elle mettait en place une "équipe d'opérations spéciales xAI", dirigée par Ted Townsend et Troy Parkes, vice-président principal du développement commercial mondial de l'organisation. Cette équipe fournira apparemment un service de conciergerie 24 heures sur 24 à xAI. On peut se demander à quelle vitesse xAI pourra mettre la main sur un si grand nombre de GPU, étant donné que ces puces sont très demandées. Selon des rapports, Nvidia a livré un total de 3,76 millions de GPU pour centres de données en 2023.

    Si la chambre de commerce accueille xAI à bras ouverts, d'autres parties de la communauté de Memphis sont moins enthousiastes. Des militants ont exprimé leur inquiétude quant à la quantité d'énergie accordée à l'installation par l'opérateur de réseau Tennessee Valley Authority, ainsi qu'à son impact sur la qualité de l'air dans la ville.

    Pour l'instant, le supercalculateur de xAI est déjà en fonction et a été utilisé pour entrainer l'IA d'Elon Musk, Grok. Des rapports ont confirmé que le supercalculateur à Memphis comprend 100 000 GPU Nvidia H100, ce qui veut dire qu'Elon Musk a dépensé au moins 3 à 4 milliards de dollars sur le projet.

    Malgré cela, son IA Grok semble être un désastre, car apparemment, le chatbot ne présente pas de garde-fous. Conçue pour être à la fois humoristique et provocante, cette IA a rapidement attiré l’attention pour ses réponses sarcastiques et ses prises de position surprenantes. Des rapports ont révélé que des utilisateurs ont réussi à créer des fausses images liées aux élections, malgré l'environnement de désinformation qui planait durant la période.

    Source : Brent Mayo, directeur principal de xAI pour la construction de sites et l'infrastructure

    Et vous ?

    Pensez-vous que ce projet est crédible ou pertinent ?
    Quel est votre avis sur le sujet ?

    Voir aussi :

    Dell et NVIDIA s'associent pour construire une usine d'IA pour la startup xAI d'Elon Musk, suscitant des inquiétudes quant à la gestion transparente et responsable des ressources allouées

    Le nouveau générateur d'images de la société IA d'Elon Musk peut créer n'importe quoi, de Macron et Trudeau qui s'embrassent à Mickey Mouse avec une arme. Faut-il censurer comme ChatGPT ou laisser faire ?

    Elon Musk veut créer un studio de jeux avec xAI : « créer un studio IA de jeux vidéo pour que les jeux redeviennent géniaux » , car « trop de studios de jeux » sont « détenus par des entreprises massives »
    Publication de communiqués de presse en informatique. Contribuez au club : corrections, suggestions, critiques, ... Contactez le service news et Rédigez des actualités

  14. #74
    Chroniqueur Actualités
    Avatar de Anthony
    Homme Profil pro
    Rédacteur technique
    Inscrit en
    Novembre 2022
    Messages
    1 480
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : France, Gironde (Aquitaine)

    Informations professionnelles :
    Activité : Rédacteur technique

    Informations forums :
    Inscription : Novembre 2022
    Messages : 1 480
    Par défaut Le chatbot IA Grok d'Elon Musk est désormais gratuit pour tous les utilisateurs
    Le chatbot IA Grok d'Elon Musk est désormais gratuit pour tous les utilisateurs, alors qu'il nécessitait auparavant un abonnement X Premium, mais il est limité à 10 messages toutes les 2 h et 3 analyses d'images par jour

    Grok, le chatbot IA d'Elon Musk, est désormais gratuit pour tous les utilisateurs, alors qu'il nécessitait initialement un abonnement premium à X (anciennement Twitter). Bien que xAI ne l'ait pas officiellement annoncé, les utilisateurs y accèdent sans payer. La version gratuite comporte des limitations, notamment 10 messages toutes les 2 heures et 3 analyses d'images par jour.

    Le chatbot Grok a été lancé pour la première fois par xAI en 2023 et était étroitement intégré au réseau social X, mais les utilisateurs devaient acheter un abonnement premium à X pour avoir accès au chatbot, contrairement à beaucoup de ses homologues comme ChatGPT, Gemini et Claude.

    En août 2024, xAI a dévoilé Grok-2 et Grok-2 mini en version bêta, présentant des capacités de raisonnement améliorées et la possibilité de générer des images directement sur la plateforme X. L'accès à Grok était alors réservé aux abonnés Premium et Premium+ de X, tandis que les développeurs avaient accès aux deux modèles via l'API d'entreprise de xAI.

    Ce début décembre 2024, le chatbot IA Grok d'Elon Musk n'est plus lié à un paywall et est désormais accessible gratuitement à tous les utilisateurs.

    Bien que xAI n'ait pas encore publié de déclaration officielle confirmant la disponibilité de Grok pour tous les utilisateurs, de nombreux utilisateurs ont partagé leur expérience sur l'accès à Grok sans acheter un abonnement X premium.


    Selon une publication sur X, la version gratuite de l'IA Grok est très limitée, permettant aux utilisateurs d'envoyer un maximum de 10 messages toutes les deux heures et d'analyser jusqu'à trois images par jour.

    Un rapport récent suggère que Grok pourrait également obtenir une application autonome comme Gemini et ChatGPT, toutes deux disponibles sur iOS et Android depuis des mois.

    Actuellement, Grok peut déjà analyser des images, et Elon Musk a laissé entendre que le chatbot pourrait bientôt être capable de traiter des documents dans des formats tels que PDF et Word.

    De son côté, xAI d'Elon Musk a récemment bouclé un tour de table de 6 milliards de dollars, portant l'évaluation de la startup à plus de 40 milliards de dollars. Une partie des fonds aurait été allouée à l'expansion de l'installation de supercalculateurs de xAI à Memphis, dans le Tennessee. Cette installation abrite un superordinateur appelé Collosus, un élément crucial des ambitions de Musk en matière d'IA, dans un contexte de concurrence croissante avec OpenAI.

    Notamment, Elon Musk a ajouté Microsoft à son procès contre OpenAI et son PDG, Sam Altman, les accusant de tenter de monopoliser illégalement le marché de l'IA.


    Ces récents développement interviennent alors que des inquiétudes se font jour quant à la capacité de l'IA Grok à diffuser des informations erronées. Selon une enquête menée par le Center for Countering Hate and Radicalism (CCDH), le chatbot IA Grok est un désastre pour la démocratie, car il ne dispose pas des garanties nécessaires pour empêcher les utilisateurs de générer de la désinformation.

    Conçue pour être à la fois humoristique et provocante, l'IA Grok a attiré l'attention pour son ton sarcastique et ses prises de positions surprenantes, mais il a également été impliqué dans la création d'images trompeuses en lien avec les dernières élections aux Etats-Unis. Les critiques affirment que X n'applique pas ses propres règles pour freiner la diffusion de ce type de contenu.

    Et vous ?

    Quel est votre avis sur le sujet ?
    Selon vous, l'accès gratuit à l'IA Grok est-il une bonne chose au vu des capacités de l'outil à diffuser de la désinformation ?
    Pensez-vous que Grok est une alternative intéressante à ChatGPT, Gemini ou Claude ?

    Voir aussi :

    La plateforme X d'Elon Musk déploie de façon gratuite et limitée le chatbot IA non censuré Grok, pour aider au codage, analyser des messages et répondre en temps réel sur X, sans le politiquement correct imposé

    Elon Musk déclare que Grok 2, le chatbot prétendument "anti-woke" qui s'est avéré surtout créer des infox et des vulgarités, sortira en Août, suivi de Grok 3 d'ici la fin de l'année
    Contribuez au club : corrections, suggestions, critiques, ... Contactez le service news et Rédigez des actualités

  15. #75
    Membre prolifique
    Avatar de Ryu2000
    Homme Profil pro
    Étudiant
    Inscrit en
    Décembre 2008
    Messages
    10 081
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Âge : 36
    Localisation : France, Hérault (Languedoc Roussillon)

    Informations professionnelles :
    Activité : Étudiant

    Informations forums :
    Inscription : Décembre 2008
    Messages : 10 081
    Par défaut
    Citation Envoyé par Anthony Voir le message
    Quel est votre avis sur le sujet ?
    Je n'ai vraiment pas de chance, j'ai pris un abonnement d'1 an à Twitter pour pouvoir tester Grok et 2 jours après j'ai appris qu'il devenait gratuit

  16. #76
    Membre extrêmement actif Avatar de OrthodoxWindows
    Homme Profil pro
    Étudiant
    Inscrit en
    Novembre 2021
    Messages
    1 287
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : France, Drôme (Rhône Alpes)

    Informations professionnelles :
    Activité : Étudiant

    Informations forums :
    Inscription : Novembre 2021
    Messages : 1 287
    Par défaut
    Citation Envoyé par Ryu2000 Voir le message
    Je n'ai vraiment pas de chance, j'ai pris un abonnement d'1 an à Twitter pour pouvoir tester Grok et 2 jours après j'ai appris qu'il devenait gratuit
    Personnellement, je trouve que le mieux qui existe actuellement c'est perchance.org, qui contient de nombreux générateurs IA (utilisant les API de certains modèles) réellement gratuit, sans limitation journalière. Par contre il ne semble pour l’instant pas y avoir d'analyse d'image.

  17. #77
    Communiqués de presse

    Femme Profil pro
    Traductrice Technique
    Inscrit en
    Juin 2023
    Messages
    2 054
    Détails du profil
    Informations personnelles :
    Sexe : Femme
    Localisation : France

    Informations professionnelles :
    Activité : Traductrice Technique

    Informations forums :
    Inscription : Juin 2023
    Messages : 2 054
    Par défaut xAI d'Elon Musk obtient 6 milliards de dollars de nouvelles liquidités pour alimenter ses ambitions en IA
    L'entreprise xAI d'Elon Musk obtient 6 milliards de dollars de nouvelles liquidités pour alimenter ses ambitions en matière d'IA, portant le total des fonds levés par xAI à 12 milliards de dollars

    L'entreprise xAI d'Elon Musk obtient 6 milliards de dollars de nouvelles liquidités pour alimenter ses ambitions en matière d'IA. La société d'IA d'Elon Musk s'efforce de rattraper des concurrents redoutables comme OpenAI et Anthropic dans la course à l'IA générative. Les nouvelles liquidités portent le total des fonds levés par xAI à 12 milliards de dollars, qui s'ajoutent à la tranche de 6 milliards de dollars levée par xAI en mai. xAI serait désormais évaluée à 45 milliards de dollars.

    Cette année 2024 a été marquée par une course effrénée à l'IA où les startups et les sociétés développant l'IA ont annoncé à tour de rôle les levées de fonds. Récemment, c'est l'entreprise xAI d'Elon Musk qui a levé 6 milliards de dollars dans le cadre d'un tour de table de série C. Pour cette levée, l'entreprise a annoncé la participation d'Andreessen Horowitz, Blackrock, Fidelity, Lightspeed, MGX, Morgan Stanley, OIA, QIA, Sequoia Capital, Valor Equity Partners, Vy Capital, Nvidia, AMD et d'autres.

    Kingdom Holdings, la société holding du conglomérat saoudien, a investi environ 400 millions de dollars dans ce tour de table, selon une déclaration publique. La déclaration révèle également que xAI est désormais évaluée à 45 milliards de dollars, soit près du double de son évaluation précédente. Les nouvelles liquidités portent à 12 milliards de dollars le total des fonds levés par xAI, qui s'ajoutent à la tranche de 6 milliards de dollars levée par xAI en mai.

    Selon le Financial Times, seuls les investisseurs ayant soutenu xAI lors de sa précédente levée de fonds ont été autorisés à participer à celle-ci. Les investisseurs qui ont participé au financement de l'acquisition de Twitter par Musk auraient eu accès à 25 % des actions de xAI.

    "Le modèle le plus puissant de xAI ... est actuellement en formation et nous nous concentrons maintenant sur le lancement de nouveaux produits innovants pour les consommateurs et les entreprises", a déclaré xAI dans un communiqué. "Les fonds provenant de ce tour de table seront utilisés pour accélérer davantage notre infrastructure avancée, expédier des produits révolutionnaires ... et accélérer ... la recherche et le développement. »

    Nom : 1.jpg
Affichages : 2926
Taille : 21,0 Ko

    xAI : une nouvelle levée de fonds pour concurrencer OpenAI

    Elon Musk a créé xAI en 2023. Peu après, la société a lancé Grok, un modèle d'IA générative qui alimente désormais un certain nombre de fonctionnalités sur la plateforme X, y compris un chatbot accessible aux abonnés X Premium et aux utilisateurs gratuits dans certaines régions.

    Grok a ce que Musk a décrit comme "une tendance rebelle" : une volonté de répondre à des "questions épicées qui sont rejetées par la plupart des autres systèmes d'IA". Si on lui demande d'être vulgaire, par exemple, Grok se pliera volontiers à l'exercice, crachant des jurons et un langage coloré que vous n'entendrez pas de la part de ChatGPT.

    Musk s'est moqué de ChatGPT et d'autres systèmes d'IA parce qu'ils sont trop "woke" et "politiquement corrects", bien que Grok ne soit pas disposé à franchir certaines limites et à s'aventurer sur des sujets politiques. Il a également qualifié Grok de "maximalement à la recherche de la vérité" et de moins partial que les modèles concurrents, bien qu'il existe des preuves suggérant que Grok penche vers la gauche.

    Au cours de l'année écoulée, Grok s'est de plus en plus intégré à X, le réseau social anciennement connu sous le nom de Twitter. Lors de son lancement, Grok n'était accessible qu'aux utilisateurs de X, et aux développeurs suffisamment compétents pour faire fonctionner l'édition "open source". Grâce à une intégration avec le modèle interne de génération d'images de xAI, Aurora, Grok peut générer des images sur X. Le modèle peut également analyser les images et résumer les actualités et les tendances.

    Les rapports indiquent que Grok pourrait gérer encore plus de fonctions X à l'avenir, de l'amélioration des capacités de recherche de X et des biographies de compte à l'aide de l'analyse des messages et des paramètres de réponse. X s'est récemment doté d'un "bouton Grok" conçu pour aider les utilisateurs à découvrir un "contexte pertinent" et à approfondir les discussions en cours et les événements en temps réel.

    xAI s'efforce de rattraper des concurrents redoutables comme OpenAI et Anthropic dans la course à l'IA générative. L'entreprise a lancé une API en octobre, permettant aux clients d'intégrer Grok dans des applications, des plateformes et des services tiers. Elle vient également de lancer une application iOS Grok autonome auprès d'un public test.

    Mais selon différents rapports, l'IA d'Elon Musk ne dispose pas de "garde-fous efficaces" qui empêcheraient les utilisateurs de créer des "images potentiellement trompeuses", notamment pour le contexte des élections américaines lors de l'étude. Les chercheurs ont constaté que Grok n'a rejeté aucune des 60 invites textuelles douteuses et a généré des images pouvant provoquer des discours de haine et de la désinformation en ligne. L'enquête avait même conclu que Grok AI est un désastre pour la démocratie.

    Elon Musk poursuit OpenAI en justice

    Outre la levée de fonds, Elon Musk a affirmé que la concurrence dans le domaine de l'IA n'a pas été équitable.

    Dans un procès intenté à OpenAI et à Microsoft, proche collaborateur d'OpenAI, les avocats de Musk accusent OpenAI de "tenter activement d'éliminer des concurrents" comme xAI en "obtenant des investisseurs la promesse de ne pas les financer". Selon l'avocat de Musk, OpenAI bénéficie aussi injustement de l'infrastructure et de l'expertise de Microsoft dans ce que les avocats décrivent comme une "fusion de facto".

    Pourtant, Musk affirme souvent que les données de la plateforme X donnent à xAI une longueur d'avance sur ses rivaux. Le mois dernier, X a modifié sa politique de confidentialité pour permettre à des tiers, y compris xAI, d'entraîner des modèles sur les messages de X. Musk, il convient de le souligner, est un expert en la matière.

    Il convient de noter que Musk était l'un des premiers fondateurs d'OpenAI et qu'il a quitté l'entreprise en 2018 après des désaccords sur sa direction. Il a affirmé dans de précédents procès qu'OpenAI avait profité de son implication précoce tout en reniant son engagement à but non lucratif de mettre les fruits de sa recherche en IA à la disposition de tous.

    OpenAI, sans surprise, n'est pas d'accord avec l'interprétation des événements faite par Musk. Dans un communiqué de presse publié à la mi-décembre, l'entreprise a qualifié le procès de Musk de trompeur, de sans fondement et de cas d'aigreur.


    Voici le communiqué de xAI concernant la levée de fonds :

    Les progrès de xAI s'accélèrent rapidement.

    Nous avons clôturé notre cycle de financement de série C de 6 milliards de dollars avec la participation d'investisseurs clés tels que A16Z, Blackrock, Fidelity Management & Research Company, Kingdom Holdings, Lightspeed, MGX, Morgan Stanley, OIA, QIA, Sequoia Capital, Valor Equity Partners et Vy Capital, pour ne citer qu'eux. Les investisseurs stratégiques NVIDIA et AMD ont également participé et continuent de soutenir xAI dans l'extension rapide de son infrastructure.

    Depuis l'annonce de la série B en mai 2024, xAI a fait des progrès techniques significatifs et a expédié une multitude d'initiatives clés, notamment :

    • Colossus, xAI a établi un avantage matériel décisif avec le plus grand supercalculateur d'IA au monde en utilisant un design de référence NVIDIA full stack avec 100 000 GPU NVIDIA Hopper. Par rapport aux délais habituels de plusieurs années de l'industrie, Colossus a été entièrement opérationnel en 122 jours et a commencé à exécuter des charges de travail 19 jours seulement après la livraison des premiers serveurs. Bientôt, xAI doublera la taille de Colossus pour atteindre un total de 200 000 GPU NVIDIA Hopper, en utilisant la plate-forme de réseau Ethernet NVIDIA Spectrum-X.

    • Grok 2, notre modèle de langage d'avant-garde doté de capacités de raisonnement de pointe.

    • L'API xAI, qui donne aux développeurs un accès programmatique à nos modèles de base, est construite sur une nouvelle pile technologique sur mesure qui permet des déploiements d'inférence multirégionaux pour un accès à faible latence dans le monde entier.

    • Aurora, le modèle de génération d'images autorégressif propriétaire de xAI pour Grok, améliore les capacités de compréhension, d'édition et de génération multimodales.

    • Grok sur X, qui exploite la plateforme X pour comprendre ce qui se passe dans le monde en temps réel. Nous avons récemment ajouté de nouvelles fonctionnalités qui améliorent l'expérience X, comme la recherche sur le web, les citations et notre récent générateur d'images, Aurora

    Le modèle le plus puissant de xAI, Grok 3, est actuellement en formation et nous nous concentrons maintenant sur le lancement de nouveaux produits innovants pour le grand public et les entreprises qui exploiteront la puissance de Grok, Colossus et X pour transformer la façon dont nous vivons, travaillons et jouons.

    Les fonds provenant de ce tour de table seront utilisés pour accélérer notre infrastructure de pointe, lancer des produits révolutionnaires qui seront utilisés par des milliards de personnes, et accélérer la recherche et le développement de technologies futures permettant à l'entreprise d'accomplir sa mission, qui est de comprendre la véritable nature de l'univers.

    xAI se concentre principalement sur le développement de systèmes d'IA avancés qui sont véridiques, compétents et maximalement bénéfiques pour l'ensemble de l'humanité.

    xAI recrute activement et recherche des personnes prêtes à rejoindre une équipe d'élite dotée d'une densité de talents très élevée et désireuse d'avoir un impact transformationnel sur l'avenir de l'humanité. Les personnes intéressées peuvent postuler dès aujourd'hui.
    Source : Annonce xAI

    Et vous ?

    Pensez-vous que cette levée de fonds est crédible ou pertinente ?
    Quel est votre avis sur la situation ?

    Voir aussi :

    La startup xAI d'Elon Musk lève 6 milliards de dollars lors d'un nouveau tour de financement de série B. L'argent servira à commercialiser les produits de xAI, dont Grok, un rival de ChatGPT, formé sur X.com

    OpenAI révèle qu'Elon Musk voulait en faire une entreprise à but lucratif dont il aurait eu le contrôle total. Il a exigé une participation majoritaire et insistait pour occuper le poste de PDG

    Le boom des investissements dans l'IA : plus de 92 Mds $ injectés en 2023 dans la construction de centres de données et l'achat de puces et d'équipements, avec des résultats mitigés et de faibles perspectives
    Publication de communiqués de presse en informatique. Contribuez au club : corrections, suggestions, critiques, ... Contactez le service news et Rédigez des actualités

Discussions similaires

  1. Réponses: 7
    Dernier message: 28/01/2022, 17h43
  2. Réponses: 48
    Dernier message: 30/12/2021, 09h05
  3. Réponses: 276
    Dernier message: 24/05/2019, 14h58
  4. Réponses: 1
    Dernier message: 16/08/2013, 13h39
  5. Réponses: 8
    Dernier message: 29/04/2010, 03h35

Partager

Partager
  • Envoyer la discussion sur Viadeo
  • Envoyer la discussion sur Twitter
  • Envoyer la discussion sur Google
  • Envoyer la discussion sur Facebook
  • Envoyer la discussion sur Digg
  • Envoyer la discussion sur Delicious
  • Envoyer la discussion sur MySpace
  • Envoyer la discussion sur Yahoo