IdentifiantMot de passe
Loading...
Mot de passe oublié ?Je m'inscris ! (gratuit)
Navigation

Inscrivez-vous gratuitement
pour pouvoir participer, suivre les réponses en temps réel, voter pour les messages, poser vos propres questions et recevoir la newsletter

  1. #61
    Membre expert
    Homme Profil pro
    Étudiant
    Inscrit en
    Novembre 2021
    Messages
    1 175
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : France, Drôme (Rhône Alpes)

    Informations professionnelles :
    Activité : Étudiant

    Informations forums :
    Inscription : Novembre 2021
    Messages : 1 175
    Points : 3 213
    Points
    3 213
    Par défaut
    Citation Envoyé par OuftiBoy Voir le message
    Je suis dubitatif de cette réponse. Si un "produit" (ici l'IA), fournit un "service" défaillant (ici, les réponses que l'IA donne), il faut bien avoir un responsable vers qui pouvoir se retourner pour avoir une "indemnisation" en cas de mauvais fonctionnement dudit "service".

    Parce que sinon, c'est la porte ouverte à tous les abus.
    Cite moi un seul modèle d'IA générative à usage généraliste incapable de générer un contenu potentiellement passible de justice. Sachant que pour être dans le juste, il faut aussi inclure ce qui pourra être illégal dans le futur et dans certains régimes autoritaires.
    De plus, la comparaison avec la pizza avariée n'a aucun sens, car là c'est plutôt le client lui-même qui réclame une pizza avarié. En cas d'IA générative, tenir l'entreprise/le développeur pour responsable de la génération d'un contenu est aussi absurde que de tenir pour responsable le fabricant d'une voiture à cause d'un conducteur ayant délibérément foncé sur un piéton (bah oui, on peu toujours dire que le fabricant avais juste à empêcher que la situation puisse se produire )


    Evidemment, si tu trouve normal que l'IA peut générer n'importe quoi, sans être responsable de rien, je comprend que tu ne vois pas le soucis avec Grok.

    Ce n'est pas le soucis d'une IA ou d'une Autre, c'est tout simplement une "technologie" qui n'est pas encore au point, qu'on balance dans la nature en espérant qu'elle ne produise pas plus de problèmes qu'elle n'en résoud.
    Visiblement tu n'a pas compris mon propos : un modèle open-source, c'est un modèle avec le code-source distribué par le développeur, sous une licence libre. A ce moment là, le développeur ne peux pas être responsable du code qu'il publie, puisque la licence décharge le développeur de responsabilités ! Ou même l'entreprise, si c'est une entreprise qui publie le code source.

    Et la seul fois où un tribunal a réussi à rendre illégal un code source (DeCSS), ça a donné ça.

  2. #62
    Membre confirmé
    Homme Profil pro
    Développeur en systèmes embarqués
    Inscrit en
    Mai 2015
    Messages
    128
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Âge : 53
    Localisation : Belgique

    Informations professionnelles :
    Activité : Développeur en systèmes embarqués

    Informations forums :
    Inscription : Mai 2015
    Messages : 128
    Points : 560
    Points
    560
    Par défaut Heu, mais non...
    Citation Envoyé par OrthodoxWindows Voir le message
    Cite moi un seul modèle d'IA générative à usage généraliste incapable de générer un contenu potentiellement passible de justice.
    Ben justement, il n'y en a pas, et c'est bien là le soucis. Toutes les IA déconnent à un moment ou l'autre.

    Citation Envoyé par OrthodoxWindows Voir le message
    Sachant que pour être dans le juste, il faut aussi inclure ce qui pourra être illégal dans le futur et dans certains régimes autoritaires.[/B]
    Tu connais peut-être le futur , tu connais peut-être madame Irma , moi pas. Si déjà les IA Générative pouvaient sortir quelque chose qui est correcte/légal dans le présent, ça serait déjà pas mal, mais ce n'est pas encore le cas. Je serais le premier à être contant que l'IA aide l'humain a être débarrassé de certaines tâches sans grand intérêt, mais ce n'est pas encore le cas. J'aimerais que le FSD de Tesla soit aussi bon que ce qui est promis, mais ce n'est pas le cas.

    Citation Envoyé par OrthodoxWindows Voir le message
    De plus, la comparaison avec la pizza avariée n'a aucun sens, car là c'est plutôt le client lui-même qui réclame une pizza avarié.
    Que dire, as-tu vraiment lu ma réponse précédente ? Je parlais d'un gars qui va dans un resto, commande un steak au poivre, mais reçois une pizza avariée. Je ne vois pas comment tu peux dire que c'est le client qui a demandé une pizza avariée.

    Citation Envoyé par OrthodoxWindows Voir le message
    En cas d'IA générative, tenir l'entreprise/le développeur pour responsable de la génération d'un contenu est aussi absurde que de tenir pour responsable le fabricant d'une voiture à cause d'un conducteur ayant délibérément foncé sur un piéton (bah oui, on peu toujours dire que le fabricant avais juste à empêcher que la situation puisse se produire )
    Désolé, mais il me semble que tu t'égard. Il n'y a aucun rapport. Dans le cas que tu cites, bien sûr que le vendeur de la voiture n'est pas responsable, je n'ai jamais dis ou même suggérer cela.

    Si le conducteur conduit la voiture vers un piéton volontairement, c'est lui le responsable.
    Par contre, si en tournant le volant à droite, la voiture va à gauche, ce n'est pas le conducteur qui est responsable, mais bien le constructeur.

    Quand un humain fait une erreur, il est en responsable.
    Quand une IA fait une erreur (on parle d'hallucination pour adoucir le soucis), elle est responsable, et ceux qui l'on vendue le sont.

    Citation Envoyé par OrthodoxWindows Voir le message
    Visiblement tu n'a pas compris mon propos : un modèle open-source, c'est un modèle avec le code-source distribué par le développeur, sous une licence libre. A ce moment là, le développeur ne peux pas être responsable du code qu'il publie, puisque la licence décharge le développeur de responsabilités ! Ou même l'entreprise, si c'est une entreprise qui publie le code source.
    Merci, je sais ce qu'est l'open-source Mais je ne vois pas ce que ça change. Je ne parle pas d'un projet lambda ou de candy-crush. Si pour se dédouaner de toute responsabilité, il suffit d'écrire un petit mot disant qu'on est pas responsable, je vais vite écrire un petit mot en bas de ma déclaration d'impôt disant que je ne suis pas responsable de l'avoir mal remplie, et d'avoir éluder l'impôt, et hop, tu crois que ça va passer crème ?

    Donc tu es d'accord que personne n'est jamais responsable de rien ? Si je met en vente un produit qui ne fait pas ce qu'il est sensé faire, je ne suis pas responsable ? Donc pout toi, le Boeing MAX qui a causé la mort de centaines de personnes parce mal conçu, y'a pas de responsable ? Parce que les plans de l'avion sont disponibles sur le net ? Vas dire ça aux familles des défunts. Il y a quelques années, Perrier avait fourni un lot de bouteille avec de l'essence dedans, et bien oui, ils étaient responsables et l'on reconnu et augmenté la sécurité de leur chaine de production. Mais toi, avant de boire quoi que ce soit, tu fais une analyse chimique du produit ? Et tu fais ça dans tous les domaines ? Chapeau tu es omniscient.

    BàT et Peace & Love.

  3. #63
    Membre expert
    Homme Profil pro
    Étudiant
    Inscrit en
    Novembre 2021
    Messages
    1 175
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : France, Drôme (Rhône Alpes)

    Informations professionnelles :
    Activité : Étudiant

    Informations forums :
    Inscription : Novembre 2021
    Messages : 1 175
    Points : 3 213
    Points
    3 213
    Par défaut
    Le problème est qu'on ne parle pas du même problème.
    Tu semble parler des hallucinations, je parle du contenu potentiellement illégal que peu générer une IA après demande de l’utilisateur en ce sens.

    Je n'ai pas compris immédiatement, car le dernier article ne parle pas des hallucinations, hors c'était celui ci que je commentais au départ.
    Concernant l'open-source : techniquement, une hallucination ne peux pas être contenu dans un code brut. Cela survient après, lors de la phase d'apprentissage. Le "responsable" est donc celui qui a formé le modèle, jamais le développeur.

  4. #64
    Membre confirmé
    Homme Profil pro
    Développeur en systèmes embarqués
    Inscrit en
    Mai 2015
    Messages
    128
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Âge : 53
    Localisation : Belgique

    Informations professionnelles :
    Activité : Développeur en systèmes embarqués

    Informations forums :
    Inscription : Mai 2015
    Messages : 128
    Points : 560
    Points
    560
    Par défaut Re-Bonjour
    Citation Envoyé par OrthodoxWindows Voir le message
    Le problème est qu'on ne parle pas du même problème.
    C'est possible, c'est en tout cas agréable de pouvoir discuter sereinement.

    Citation Envoyé par OrthodoxWindows Voir le message
    Tu semble parler des hallucinations, je parle du contenu potentiellement illégal que peu générer une IA après demande de l’utilisateur en ce sens.
    Le soucis, c'est que la personne qui fait une demande à l'IA, sans aucune volonté de tomber dans l'illégalité, n'est pas forcément en mesure de savoir si le résultat qu'elle obtient est légal ou pas.

    Oui, les hallucinations sont la preuve que l'IA n'est pas encore prête a être utilisée partout. Il y'a certes des "niches" où elle peut déjà rendre service, comme par exemple dans l'analyse de radiographie pour détecter des tumeurs. Mais ce n'est pas de l'IA, ça existe depuis un bon moment, c'est juste un traitement d'images, qui peut aider à faire un meilleur diagnostic.

    Citation Envoyé par OrthodoxWindows Voir le message
    Je n'ai pas compris immédiatement, car le dernier article ne parle pas des hallucinations, hors c'était celui ci que je commentais au départ. Concernant l'open-source : techniquement, une hallucination ne peux pas être contenu dans un code brut. Cela survient après, lors de la phase d'apprentissage. Le "responsable" est donc celui qui a formé le modèle, jamais le développeur.
    C'est effectivement un autre problème avec l'IA. Elle ne peut fournir en sortie qu'une probabilité qui dépend de la qualité des données qu'elle a reçu lors de son apprentissage. Et c'est un très gros problème qui a de multiple facettes:

    • - D'où viennent ces données ? De ce que j'en sais, on bourre l'IA d'une floppée de contenus obtenu sur Internet, et très souvent illégalement. L'ancien PDG de Google a même déclarer qu'il fallait "voler" ces informations, et que ce qu'elle rapporteront suffira largement a payer des avocats pour régler les éventuelles soucis de droit d'auteur. Je trouve que c'est des méthodes de voyous. Le plus "riche", le plus "fort', imposera sa loi aux autres. Ce n'est pas un monde dans lequel je veux voir grandir mes enfants et petit-enfants.

      - Ces données sont elles "validées" avant d'être injectées dans le système d'apprentissage ? La masse de donnée qu'il faut pour entrainer une IA est tellement énorme que c'est impossible a faire. Il faudrait des milliers de spécialistes sur des milliers de sujets. Ce n'est humaine pas possible.

      - Si l'IA est principalement fournie d'info venue d'internet, sans vérification, ça ne m'étonne pas qu'elle hallucine assez souvent. Et ça peut être très dangereux pour la personne qui obtient ces informations. Elle ne sait peut-être pas détecter que si la réponse est fausse et même très dangereuse si elle suit aveuglément ce que lui répond une IA.

      - Il y'a des bonnes infos sur internet, et d'autres pour le moins douteuse. On peut trouver la bonne info, dans un domaine particulier, si seulement on maîtrise déjà assez bien le sujet. Quand je vais sur StackOverflow, je sais ce que je cherche et j'ai assez d'expérience pour "trouver" la bonne information, parce que j'ai de solides bases niveau développement. Par contre, si je dois chercher des informations sur une question de chimie, j'aurais bien du mal a m'informer correctement et de comprendre ce que je lis.

      - Pareil pour le code généré par l'IA. Il faut savoir "remarquer" quand l'IA déconne. Nous, en temps que développeur, on peut éventuellement remarquer ces erreurs, mais même le meilleur développeur au monde ne peux pas connaître et maîtrisé tous les langages existant.

      - Concernant les "droits d'auteur", et savoir si l'information peut être utilisée ou pas, cela ne doit pas être évident non plus, et ça peut mettre des entreprises dans des galères pas possible, car celui qui "gagnera" sera à 99% celui qui sait se payer les meilleurs avocats, ou faire trainer les procédures pour étouffer lentement une petite boite par rapport à des des GAFAM.

      - Si on parle de développements, si on se met à se "reposer" sur l'IA, il n'y aura bien vite plus assez de développeurs assez compétant pour vérifier le code produit. Parce que ce n'est plus du développement, ça n'a plus rien de très passionnant, et ça n'attirera plus personne.

      - Perso, si le métier de développeur devient un simple métier de "surveillance", ça enlève toute ce qui est intéressant dans le métier, et ce sera sans moi.


    Quand à savoir qui est responsable de quoi en cas de gros soucis, ce sera encore une fois une bataille d'avocats, que seul les plus gros pourront en supporter le coup. Quand Einstein a fait ses traveaux sur l'énergie atomique, je ne pense pas que son intention était de fabriquer des bombes atomique et encore moins de pulvériser des milliers d'innocents. Il n'est pas responsable. Le développeur qui "construit" une méthode permettant une forme d'IA n'est pas responsable non plus, mais la personne qui va utiliser ce travail, cette méthode, est lui responsable. Et le monde est ainsi fait que ce sont rarement les vrais responsables qui chute. On trouve toujours bien un pauvre gus pour tout lui mettre sur le dos.

    Il y'a aussi le problème que des "exemples" ont été mis en ligne il y a plus de 10 ou même 20 ans, pour des raisons disons de partage de savoir, avec une idée "académique". Que tous cela soit pompé 20 ans plus tard et en plus revendu, c'est une pillule difficile a avaler pour celui qui a prit le temps de poster des informations de qualité.

    Un autre "effet de bord", c'est que puisse que l'on sait maintenant que ce qu'on poste sera utilisé par d'autres à des fins mercantile, l'information de qualité deviendra de moins en moins disponible, les gens n'aime pas trop qu'on se foute de leur geule. C'est la panique chez StackOverflow, car plusieurs très bon dévellopeurs y postaient des réponses de qualité, gratuitement, et que maintenant StackOverflow essaye de moneyer tout ce savoir. Il empeche même que l'on efface des réponses ou qu'on supprime un compte. C'est encore une fois des méthodes que je ne peux cautionner.

    Enfin, puisque l'IA ne sait que "reproduire" sur base d'un "existant", le risque est grand que tout deviennent fade et sans évolutions.

    Voilà mon avis sur l'IA qui n'engage que moi.

    BàT et comme toujours, Peace and Love.

  5. #65
    Membre extrêmement actif Avatar de Jon Shannow
    Homme Profil pro
    Responsable de service informatique
    Inscrit en
    Avril 2011
    Messages
    4 504
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Âge : 60
    Localisation : France, Ille et Vilaine (Bretagne)

    Informations professionnelles :
    Activité : Responsable de service informatique
    Secteur : High Tech - Électronique et micro-électronique

    Informations forums :
    Inscription : Avril 2011
    Messages : 4 504
    Points : 10 227
    Points
    10 227
    Par défaut
    De ce que je lis, je pense que la notion de "responsabilité" n'est pas tout à fait correctement détaillée.

    Au niveau des IAs produisant du contenu, il y a 2 responsabilités différentes.

    1) La responsabilité des sociétés mettant à disposition un modèle d'IA qui produit des contenus faux et trompeur pouvant avoir de grave conséquence sur la vie des personnes. Je prendrais en exemple les plaidoiries d'avocats avec de faux jugements en exemple (même si on peut considérer que l'avocat aurait du vérifier, le fait que le modèle d'IA "invente" des jugements, alors que cela ne lui est pas demandé, est une défaillance du système), mais aussi le cas de ce journaliste allemand qui se voit accuser des crimes qu'il a couvert en tant que journaliste (lien). Dans ces cas, la société mettant le logiciel d'IA à disposition est responsable du dysfonctionnement de son outil.

    2) La personne qui utilise l'IA pour produire volontairement une information fausse (cas des images truquées produites par le clan Trump) et qui la diffuse. Dans ce cas, c'est la personne qui diffuse ces données qui est responsable, et non le producteur du logiciel d'IA.

    Pour repartir sur une comparaison avec les voitures. En effet, une personne provoquant un accident au volant de sa voiture est responsable. Mais, si la voiture a eu un comportement anormal du à une malfaçon, provoquant l'accident, alors le constructeur est responsable.

    JS
    Au nom du pèze, du fisc et du St Estephe
    Au nom du fric, on baisse son froc...

  6. #66
    Membre confirmé
    Homme Profil pro
    Développeur en systèmes embarqués
    Inscrit en
    Mai 2015
    Messages
    128
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Âge : 53
    Localisation : Belgique

    Informations professionnelles :
    Activité : Développeur en systèmes embarqués

    Informations forums :
    Inscription : Mai 2015
    Messages : 128
    Points : 560
    Points
    560
    Par défaut Bonjour à tous
    Bonjour Jon,

    Citation Envoyé par Jon Shannow Voir le message
    De ce que je lis, je pense que la notion de "responsabilité" n'est pas tout à fait correctement détaillée.
    Je te l'accorde bien volonté, je ne suis ni juriste, ni avocat. Je ne suis qu'un développeur.

    Citation Envoyé par Jon Shannow Voir le message
    Au niveau des IAs produisant du contenu, il y a 2 responsabilités différentes.
    Il y en a peut-être plus encore, si on compte les intermédiaires, le développeur qui a construit l'IA, celui qui lui a demandé de le faire, celui qui a "alimenté" celle ci en donnée (et ce n'est pas fait à la main ), celui qui la vend, celui qui l'achète, celui qui ... etc etc

    Citation Envoyé par Jon Shannow Voir le message
    1) La responsabilité des sociétés mettant à disposition un modèle d'IA qui produit des contenus faux et trompeur pouvant avoir de grave conséquence sur la vie des personnes. Je prendrais en exemple les plaidoiries d'avocats avec de faux jugements en exemple (même si on peut considérer que l'avocat aurait du vérifier, le fait que le modèle d'IA "invente" des jugements, alors que cela ne lui est pas demandé, est une défaillance du système), mais aussi le cas de ce journaliste allemand qui se voit accuser des crimes qu'il a couvert en tant que journaliste (lien). Dans ces cas, la société mettant le logiciel d'IA à disposition est responsable du dysfonctionnement de son outil.
    C'est bien là un énorme problème, un utilisateur ne peut pas forcément savoir si la réponse que donne l'IA est valide ou pas. En consultant une autre IA ?

    Certains peuvent le faire dans certains domaine, mais dans d'autres domaines, c'est impossible de savoir.

    Rien qui ne sort de l'IA n'est certifié, et il va vite devenir impossible de distinguer le vrai du faux. Si chaque utilisateur doit s'assurer que tout ce que l'IA répond est "vrai", la situation n'est pas tenable. Généralement, on recherche une réponse parque l'on en connait pas la réponse, et de cela découle le fait qu'on ne peux plus rien vérifier. C'est un danger énorme.


    Le fait que des GAFAM se dédouanent eux-mêmes de toute "responsabilité" en "pondant" des "licences" qui font des pages et des pages et que le commun des mortels ne peux pas comprendre, c'est quelque chose que j'ai du mal a accepter. Quand une société ne sait plus distinguer le vrai du faux, le bien du mal, cette société ne peut que glisser vers l'arbitraire.

    On me dira que c'est pareil avec une presse qui "oriente" la pensée de ses lecteurs, mais ç'est à une moindre échelle et ça peut être vérifié et contredis. Un des soucis ici, c'est la déferlante de possibilité et la "masse" d'info qu'il faudrait pouvoir faire "valider" par des humains, et ce n'est pas possible non plus.

    Il n'y a pas de solution.

    Citation Envoyé par Jon Shannow Voir le message
    2) La personne qui utilise l'IA pour produire volontairement une information fausse (cas des images truquées produites par le clan Trump) et qui la diffuse. Dans ce cas, c'est la personne qui diffuse ces données qui est responsable, et non le producteur du logiciel d'IA.

    Pour repartir sur une comparaison avec les voitures. En effet, une personne provoquant un accident au volant de sa voiture est responsable. Mais, si la voiture a eu un comportement anormal du à une malfaçon, provoquant l'accident, alors le constructeur est responsable.
    Je suis bien d'accord, mais la même fausse info peut être produite involontairement, et la diffuser. Les problèmes devront être "tranché" par les avocats, et le commun des mortel, même en vendant sa maison ou en faisant un crédit mirobolant n'a pas la moindre chance de gagner un procès contre un GAFAM.

    Et qui va savoir si l'acte était volontaire ou pas ? Sur quelle base vas-ton décider ? Une IA ?

    L'exemple de la voiture et plus simple à comprendre, et on peut "remonter" jusqu'au constructeur et faire tout un tas d'analyse pour expliquer ce qui c'est produit, et comment faire pour que ça ne se reproduise plus.

    Mais dans le cas d'une IA (qu'elle ai été utilisée volontairement (ou pas) pour générer un fake), je ne vois pas bien comment on pourrait "inspecter" cette IA pour comprendre l'erreur. C'est une boite noir dont on ne sait pas comment elle a été alimentées, par qui, dans quel but, puis qui produit une réponses on ne sait pas trop comment (par statistique/probabilité) dont on n'est pas capable de savoir si la réponse est vrai ou fausse.

    Il a y de tout temps eu des faussaires, mais là encore ça restait limité. Même des "experts" en oeuvre d'art (style tableau de Rubens) peuvent être en difficulté pour savoir si ce qu'ils ont devant les yeux est un faux ou pas. Alors, je pense que demander à "monsieur et madame tout le monde" (la Michu)
    de pouvoir distinguer le vrai du faux est impossible.

    Citation Envoyé par Jon Shannow Voir le message
    JS
    BàT et Peace & Love.

  7. #67
    Membre extrêmement actif Avatar de Jon Shannow
    Homme Profil pro
    Responsable de service informatique
    Inscrit en
    Avril 2011
    Messages
    4 504
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Âge : 60
    Localisation : France, Ille et Vilaine (Bretagne)

    Informations professionnelles :
    Activité : Responsable de service informatique
    Secteur : High Tech - Électronique et micro-électronique

    Informations forums :
    Inscription : Avril 2011
    Messages : 4 504
    Points : 10 227
    Points
    10 227
    Par défaut
    Pour moi, il y a une différence entre :
    -Le mec qui demande "Produit moi une image de Taylor Swift avec une pancarte appelant à voter Trump"
    -Le mec qui demande "Trouve moi les images de chanteuses avec une pancarte appelant à voter Trump"

    Si dans le second cas, l'IA génère des photos de chanteuses n'ayant jamais brandies de pancarte appelant à voter Trump, alors c'est la société produisant l'IA qui est responsable. Dans le premier cas, c'est le demandeur qui est responsable, l'IA répondant à sa demande, c'est à lui de ne pas la publier, ou de la publier en indiquant bien que c'est un faux.
    Au nom du pèze, du fisc et du St Estephe
    Au nom du fric, on baisse son froc...

  8. #68
    Membre confirmé
    Homme Profil pro
    Développeur en systèmes embarqués
    Inscrit en
    Mai 2015
    Messages
    128
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Âge : 53
    Localisation : Belgique

    Informations professionnelles :
    Activité : Développeur en systèmes embarqués

    Informations forums :
    Inscription : Mai 2015
    Messages : 128
    Points : 560
    Points
    560
    Par défaut Je suis bien d'accord...
    Citation Envoyé par Jon Shannow Voir le message
    Pour moi, il y a une différence entre :
    -Le mec qui demande "Produit moi une image de Taylor Swift avec une pancarte appelant à voter Trump"
    -Le mec qui demande "Trouve moi les images de chanteuses avec une pancarte appelant à voter Trump"

    Si dans le second cas, l'IA génère des photos de chanteuses n'ayant jamais brandies de pancarte appelant à voter Trump, alors c'est la société produisant l'IA qui est responsable. Dans le premier cas, c'est le demandeur qui est responsable, l'IA répondant à sa demande, c'est à lui de ne pas la publier, ou de la publier en indiquant bien que c'est un faux.
    Oui, je vois ton point de vue, je le comprend, mais le soucis c'est qu'on est pas dans un monde binaire où c'est 0 ou 1.

    Qu'est-ce qui me certifie qu'en disant Produit moi une image de Taylor Swift avec une pancarte appelant à voter Trump, que le gars ne s'est pas juste mal exprimé, il aurait pu demander "Y'a-t-il des images de chanteuses...", il l'IA pourrait bien lui répondre avec une fausse image produite par quelqu'un d'autre, puisque toutes ces bonnes ou mauvaises info sont "dans le cloud" et que l'IA est "fournie" d'informations étant déjà potentiellement fausse au départ ?

    Il y'a mille façon de demander la même chose. Et l'IA ne sais comprendre toutes ces nuances. Il peut même dire "Produit moi..." volontairement, sans être coupable de rien du tout. Il est peut-être journaliste et a besoin de prouver à ses lecteurs que les IA peuvent pondre tout et n'importe quoi. Ou il veux s'en servir pour faire une simple caricature. Pour se moquer par exemple de gens qui disent une choses, mais font le contraire. Et un jour son service "cloud" est hacké, son image volée, puis distribuée pour l'exclure du débat.

    C'est tout ce flou qui est dangereux, et surtout la masses énorme d'infos à traiter, et y'il n'y a pas de filtre possible.
    De plus, ayant déjà pompé tout le web, certaines IA sont fournie maintenant en entrée par des "info" qu'elles ont elles-mêmes générée.

    Ce n'est que mon avis, je ne dis pas que j'ai raisons. Mais tout ceci est bien dangereux pour le peut de démocratie qu'il nous reste.

    BàT et Peace & love.

  9. #69
    Membre extrêmement actif Avatar de Jon Shannow
    Homme Profil pro
    Responsable de service informatique
    Inscrit en
    Avril 2011
    Messages
    4 504
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Âge : 60
    Localisation : France, Ille et Vilaine (Bretagne)

    Informations professionnelles :
    Activité : Responsable de service informatique
    Secteur : High Tech - Électronique et micro-électronique

    Informations forums :
    Inscription : Avril 2011
    Messages : 4 504
    Points : 10 227
    Points
    10 227
    Par défaut
    Citation Envoyé par OuftiBoy Voir le message
    Oui, je vois ton point de vue, je le comprend, mais le soucis c'est qu'on est pas dans un monde binaire où c'est 0 ou 1.

    Qu'est-ce qui me certifie qu'en disant Produit moi une image de Taylor Swift avec une pancarte appelant à voter Trump, que le gars ne s'est pas juste mal exprimé, il aurait pu demander "Y'a-t-il des images de chanteuses...", il l'IA pourrait bien lui répondre avec une fausse image produite par quelqu'un d'autre, puisque toutes ces bonnes ou mauvaises info sont "dans le cloud" et que l'IA est "fournie" d'informations étant déjà potentiellement fausse au départ ?

    Il y'a mille façon de demander la même chose. Et l'IA ne sais comprendre toutes ces nuances. Il peut même dire "Produit moi..." volontairement, sans être coupable de rien du tout. Il est peut-être journaliste et a besoin de prouver à ses lecteurs que les IA peuvent pondre tout et n'importe quoi. Ou il veux s'en servir pour faire une simple caricature. Pour se moquer par exemple de gens qui disent une choses, mais font le contraire. Et un jour son service "cloud" est hacké, son image volée, puis distribuée pour l'exclure du débat.

    C'est tout ce flou qui est dangereux, et surtout la masses énorme d'infos à traiter, et y'il n'y a pas de filtre possible.
    De plus, ayant déjà pompé tout le web, certaines IA sont fournie maintenant en entrée par des "info" qu'elles ont elles-mêmes générée.

    Ce n'est que mon avis, je ne dis pas que j'ai raisons. Mais tout ceci est bien dangereux pour le peut de démocratie qu'il nous reste.

    BàT et Peace & love.
    Je suis d'accord avec toi. Rien n'est tout blanc ou tout noir. Mais, je pense que la responsabilité des sociétés fournissant un modèle d'IA doit quand même exister et permettre de les condamner si leur outil produit des résultats faux, trompeurs, mensongers nuisant à des une ou plusieurs personnes. Ensuite, je pense aussi que toute personne publiant le résultat d'un modèle d'IA doit signaler que ce qu'il publie provient d'une IA et que cela est potentiellement faux.

    Mais bon, tout cela n'est pas simple, et je ne suis pas juriste.
    Au nom du pèze, du fisc et du St Estephe
    Au nom du fric, on baisse son froc...

  10. #70
    Membre confirmé
    Homme Profil pro
    Développeur en systèmes embarqués
    Inscrit en
    Mai 2015
    Messages
    128
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Âge : 53
    Localisation : Belgique

    Informations professionnelles :
    Activité : Développeur en systèmes embarqués

    Informations forums :
    Inscription : Mai 2015
    Messages : 128
    Points : 560
    Points
    560
    Par défaut Tout a fait d'accord..
    Citation Envoyé par Jon Shannow Voir le message
    Je suis d'accord avec toi. Rien n'est tout blanc ou tout noir. Mais, je pense que la responsabilité des sociétés fournissant un modèle d'IA doit quand même exister et permettre de les condamner si leur outil produit des résultats faux, trompeurs, mensongers nuisant à des une ou plusieurs personnes. Ensuite, je pense aussi que toute personne publiant le résultat d'un modèle d'IA doit signaler que ce qu'il publie provient d'une IA et que cela est potentiellement faux.

    Mais bon, tout cela n'est pas simple, et je ne suis pas juriste.
    Oui, ce serait un bon début pas trop difficile a mettre dans une loi, que toute personne distribuant un contenu générer par l'IA soit obligé de le mentionner. Même chose pour le code générer par l'IA, il faudrait précisément ET clairement (pas au fond d'une mention de licences de 300 pages), que l'IA a fournit une partie du code.

    Je dirais même plus, les éditeurs devraient être obligés d'indiquer le code open-source qu'ils ont utilisés, même s'il est dispo librement et volontairement distribué par son/ses créateurs. Ne fusse que pour remercier les auteurs du produit qu'ils vendent.

    Mais oui, je pense que tout cela sera très difficile a vérifier, a contrôler, etc.

    En tout cas, il faut interdire au GAFAM de s'auto déresponsabiliser, c'est trop facile.

    BàT. et Peace & Love.

Discussions similaires

  1. Réponses: 7
    Dernier message: 28/01/2022, 16h43
  2. Réponses: 48
    Dernier message: 30/12/2021, 08h05
  3. Réponses: 276
    Dernier message: 24/05/2019, 13h58
  4. Réponses: 1
    Dernier message: 16/08/2013, 12h39
  5. Réponses: 8
    Dernier message: 29/04/2010, 02h35

Partager

Partager
  • Envoyer la discussion sur Viadeo
  • Envoyer la discussion sur Twitter
  • Envoyer la discussion sur Google
  • Envoyer la discussion sur Facebook
  • Envoyer la discussion sur Digg
  • Envoyer la discussion sur Delicious
  • Envoyer la discussion sur MySpace
  • Envoyer la discussion sur Yahoo