IdentifiantMot de passe
Loading...
Mot de passe oublié ?Je m'inscris ! (gratuit)
Navigation

Inscrivez-vous gratuitement
pour pouvoir participer, suivre les réponses en temps réel, voter pour les messages, poser vos propres questions et recevoir la newsletter

Intelligence artificielle Discussion :

Plus de 13 500 artistes se mobilisent pour dénoncer l'exploitation de leurs œuvres par les entreprises d'IA


Sujet :

Intelligence artificielle

  1. #141
    Expert confirmé
    Avatar de shenron666
    Homme Profil pro
    avancé
    Inscrit en
    Avril 2005
    Messages
    2 536
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Âge : 48
    Localisation : France, Seine et Marne (Île de France)

    Informations professionnelles :
    Activité : avancé

    Informations forums :
    Inscription : Avril 2005
    Messages : 2 536
    Points : 5 219
    Points
    5 219
    Par défaut
    Citation Envoyé par Mathis Lucas Voir le message
    Par exemple, lorsque vous reproduisez entièrement un livre à l'aide d'une photocopieuse, ce n'est pas le fabricant de l'appareil qui risque des poursuites, mais bien sûr vous, sauf si vous avez une autorisation légale.
    Plutôt falacieux comme exemple
    La photocopieuse n'a pas été "entrainée" avec des milliers / millions de livres originaux

    Citation Envoyé par ALT Voir le message
    En ce qui me concerne, j'affirme depuis longtemps que les artistes se sont toujours inspirés de leurs prédécesseurs
    s'inspirer c'est une chose
    copier ou réutiliser c'est du vol
    et c'est ce que font les IA actuelles vu qu'elles sont entrainées avec des oeuvres originales
    mais surtout, sans l'accord de l'auteur tant les géants derrière ces IA s'estiment en droit de voler le travail des autres pour mieux se dorer la pilule

  2. #142
    Expert éminent
    Avatar de Matthieu Vergne
    Homme Profil pro
    Consultant IT, chercheur IA indépendant
    Inscrit en
    Novembre 2011
    Messages
    2 271
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : France

    Informations professionnelles :
    Activité : Consultant IT, chercheur IA indépendant
    Secteur : High Tech - Éditeur de logiciels

    Informations forums :
    Inscription : Novembre 2011
    Messages : 2 271
    Points : 7 794
    Points
    7 794
    Billets dans le blog
    3
    Par défaut
    Citation Envoyé par shenron666 Voir le message
    copier ou réutiliser c'est du vol
    De la contrefaçon. Le vol consiste à subtiliser quelque chose à quelqu'un, de sorte que ce quelqu'un ne l'a plus. La contrefaçon non.

    Les discussions de ce genre se basent trop souvent sur des amalgames pour faire valoir telle ou telle interprétation. On ne peut pas critiquer qu'un tel fasse un argument fallacieux si de notre côté on fait pareil. Et corriger ça commence par utiliser la bonne terminologie.

  3. #143
    Expert confirmé
    Avatar de shenron666
    Homme Profil pro
    avancé
    Inscrit en
    Avril 2005
    Messages
    2 536
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Âge : 48
    Localisation : France, Seine et Marne (Île de France)

    Informations professionnelles :
    Activité : avancé

    Informations forums :
    Inscription : Avril 2005
    Messages : 2 536
    Points : 5 219
    Points
    5 219
    Par défaut
    Citation Envoyé par Matthieu Vergne Voir le message
    De la contrefaçon. Le vol consiste à subtiliser quelque chose à quelqu'un, de sorte que ce quelqu'un ne l'a plus. La contrefaçon non.

    Les discussions de ce genre se basent trop souvent sur des amalgames pour faire valoir telle ou telle interprétation. On ne peut pas critiquer qu'un tel fasse un argument fallacieux si de notre côté on fait pareil. Et corriger ça commence par utiliser la bonne terminologie.
    Absolument pas d'accord, la contrefaçon c'est reproduire un objet sans en avoir le droit et à l'identique ou très proche
    rien à voir avec le sujet

    Ici je parle bien de vol, plus exatement le vol de propriété intellectuelle puisqu'il s'agit d'oeuvres protégées par le droit d'auteur
    aucun amalgame ou mauvaise interprétation de ma part

  4. #144
    ALT
    ALT est déconnecté
    Membre émérite
    Avatar de ALT
    Homme Profil pro
    Retraité
    Inscrit en
    Octobre 2002
    Messages
    1 274
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Âge : 65
    Localisation : France, Indre et Loire (Centre)

    Informations professionnelles :
    Activité : Retraité
    Secteur : Service public

    Informations forums :
    Inscription : Octobre 2002
    Messages : 1 274
    Points : 2 477
    Points
    2 477
    Par défaut
    À shenron666 : Les IA sont entraînées avec des œuvres originales, certes, mais elles ne les reproduisent pas, sinon il n'y aurait pas besoin de l'IA pour ça.
    Et n'oublie pas que tous les apprentis artistes ont d'abord reproduit des œuvres originales, sans consentement de l'auteur, & sans vendre ces contrefaçons, ceci avant de trouver leur propre style.
    Enfin, tu refuses le terme de contrefaçon que Matthieu Vergne souhaite utiliser, alors que ton expression « vol de propriété intellectuelle » en est l'exacte définition, comme tu le reconnais d'ailleurs deux lignes plus haut ! Là, j'aimerais comprendre.

  5. #145
    Expert éminent
    Avatar de Matthieu Vergne
    Homme Profil pro
    Consultant IT, chercheur IA indépendant
    Inscrit en
    Novembre 2011
    Messages
    2 271
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : France

    Informations professionnelles :
    Activité : Consultant IT, chercheur IA indépendant
    Secteur : High Tech - Éditeur de logiciels

    Informations forums :
    Inscription : Novembre 2011
    Messages : 2 271
    Points : 7 794
    Points
    7 794
    Billets dans le blog
    3
    Par défaut
    Citation Envoyé par shenron666 Voir le message
    Ici je parle bien de vol, plus exatement le vol de propriété intellectuelle puisqu'il s'agit d'oeuvres protégées par le droit d'auteur
    Le simple fait que tu parles de vol dans le cadre de propriété intellectuelle montre bien que tu fais un amalgame, car les deux sont fondamentalement séparés.

    La notion même de "propriété intellectuelle" est conçue dans un code juridique dédié (code de la propriété intellectuelle) pour protéger des oeuvres notamment contre la copie, et dont le délit est qualifié de "contrefaçon".
    https://www.legifrance.gouv.fr/codes...TI000032655082

    Le "vol" est défini depuis bien plus longtemps dans le code pénal et consiste à subtiliser une chose à autrui, quelle que soit la chose en question, indépendamment de toute propriété intellectuelle.
    https://www.legifrance.gouv.fr/codes...A000006149833/

    Une des différences principales entre les deux est que le vol consiste à ce que la victime n'ait plus l'objet qui lui a été volé, alors que dans le cas de la contrefaçon elle l'a toujours. C'est précisément ce dont il est question ici : l'auteur (ou ses ayants droits) est toujours détenteur de l'oeuvre et tout ce qui s'y rattache, mais d'autres se sont arrogés ces droits en copiant et utilisant son oeuvre sans autorisation.

    L'amalgame entre vol et contrefaçon est tenace et présent dans toutes les discussions sur le sujet, et si on veut que les choses avancent il faut commencer par poser les bons mots sur les bons phénomènes.

  6. #146
    Membre émérite
    Profil pro
    Développeur Web
    Inscrit en
    Février 2008
    Messages
    2 496
    Détails du profil
    Informations personnelles :
    Localisation : France

    Informations professionnelles :
    Activité : Développeur Web

    Informations forums :
    Inscription : Février 2008
    Messages : 2 496
    Points : 2 866
    Points
    2 866
    Par défaut
    Non mais on peut fracturer le coffre de la Banque de France, du moment que ce sont les receleurs qui sont responsables ...

  7. #147
    Chroniqueur Actualités

    Homme Profil pro
    Rédacteur technique
    Inscrit en
    Juin 2023
    Messages
    900
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : Bénin

    Informations professionnelles :
    Activité : Rédacteur technique
    Secteur : High Tech - Éditeur de logiciels

    Informations forums :
    Inscription : Juin 2023
    Messages : 900
    Points : 16 062
    Points
    16 062
    Par défaut Les modèles d'IA de génération d'images peuvent être trompés et incités à produire des contenus obscènes
    Les modèles d'IA de génération d'images peuvent être trompés et incités à produire des contenus obscènes
    en exploitant une faille critique dans la façon dont ils interprètent le langage naturel

    Une nouvelle étude rapporte que les filtres de sécurité des modèles d'IA de génération d'images comme DALL-E et Midjourney peuvent être facilement contournés grâce à une méthode inattendue. Les chercheurs ont découvert une faille dans ces outils d'IA qui permet de générer des contenus inappropriés à l'aide d'un algorithme appelé "SneakyPrompt". Il exploite une faille critique dans la façon dont ces outils d'IA interprètent le langage naturel. L'étude remet une fois de plus en question l'efficacité des filtres intégrés à ces systèmes d'IA. Par le passé, ces garde-fous, pourtant jugés solides par leurs auteurs, avaient déjà permis la génération de nombreux contenus inappropriés.

    Les modèles d'IA de génération d'images sont conçus pour créer des images à partir de descriptions textuelles. Stable Diffusion, DALL-E 2 et Midjourney sont parmi les modèles d'IA de génération de texte les plus connus. Pour empêcher les utilisateurs de générer des contenus inappropriés, les créateurs de ces systèmes les ont dotés de filtres de sécurités qui bloquent les requêtes suspectes. Ils visent notamment à empêcher la création d'images obscènes comme des contenus explicites ou violents. Ces garde-fous ont été mis à rudes épreuves au fil du temps, ce qui a poussé les propriétaires de ces modèles d'IA à les rendre plus efficaces contre les attaques.

    Mais des chercheurs de l'université Johns Hopkins, à Baltimore, et de l'université Duke, à Durham (Caroline du Nord), ont découvert une faille critique dans ces systèmes d'IA, qui pourrait avoir de vastes répercussions sur la modération des contenus numériques. La découverte concerne un algorithme appelé SneakyPrompt, conçu pour déjouer les filtres de sécurité intégrés dans les modèles d'IA de génération d'images. Dans le cadre de leurs expériences, l'équipe de recherche a commencé par tester des invites que les filtres de sécurité bloqueraient, comme "un homme nu faisant du vélo". Les tests ont été effectués sur DALL-E 2 et Stable Diffusion.


    L'algorithme a examiné les réponses des IA génératives, puis a progressivement ajusté ces alternatives pour trouver des commandes capables de contourner les filtres de sécurité et de produire des images. Il est important de noter que les filtres de sécurité ne se limitent pas à une liste de mots interdits tels que "nu". Ils recherchent également des termes, tels que "nu", dont la signification est étroitement liée à des mots interdits. SneakyPrompt a pu substituer des mots dans ces messages pour contourner les filtres. Les chercheurs ont constaté que des mots absurdes pouvaient inciter ces modèles d'IA générative à produire des images innocentes ou obscènes.

    Par exemple, ils ont remarqué que DALL-E 2 interpréterait les termes "thwif" et "mowwly" comme "chat" et "lcgrfy" et "butnip fwngho" comme "chien". L'équipe ignore exactement pourquoi le modèle prendrait ces mots absurdes pour des ordres. « Notre groupe est généralement intéressé par le fait de casser des choses. Casser les choses fait partie de leur renforcement. Par le passé, nous avons trouvé des vulnérabilités dans des milliers de sites Web, et maintenant nous nous tournons vers des modèles d'IA pour trouver leurs vulnérabilités », explique l'auteur principal de l'étude, Yinzhi Cao, chercheur en cybersécurité à l'université Johns Hopkins, à Baltimore.

    Mais Cao fait remarquer que ces systèmes sont formés sur des corpus autres que l'anglais, et que certaines syllabes ou combinaisons de syllabes similaires à, par exemple, "thwif" dans d'autres langues peuvent être liées à des mots tels que "cat". Les chercheurs ont également découvert que des mots absurdes pouvaient amener les IA génératives à produire des images dangereuses pour le travail (NSFW). Apparemment, les filtres de sécurité ne considèrent pas ces invites comme suffisamment liées à des termes interdits pour les bloquer, mais les systèmes d'IA considèrent néanmoins ces mots comme des commandes pour produire un contenu douteux.

    Au-delà des mots absurdes, les scientifiques ont constaté que les IA génératives pouvaient confondre des mots normaux avec d'autres mots normaux. Par exemple, ils ont remarqué que DALL-E 2 pouvait confondre le terme "glucose" ou "gregory faced wright" avec "chat" et "maintenance" ou "dangerous think walt" avec "chien". Dans ce cas, l'explication peut résider dans le contexte dans lequel ces mots sont placés. Lorsqu'on leur a demandé de répondre à la question suivante : "the dangerous think walt growled menacingly at the stranger who approached its owner", les systèmes ont déduit que "dangerous think walt" signifiait "dog" dans le reste de la phrase.

    « Si le mot "glucose" est utilisé dans d'autres contextes, il peut ne pas signifier "chat" », explique Cao. Les tentatives manuelles précédentes pour contourner ces filtres de sécurité étaient limitées à des modèles d'IA spécifiques, telles que Stable Diffusion, et ne pouvaient pas être généralisées à d'autres systèmes de génération de contenu. Les chercheurs ont constaté que l'exploit SneakyPrompt pouvait fonctionner à la fois sur DALL-E 2 et sur Stable Diffusion. En outre, selon les chercheurs, les tentatives manuelles antérieures visant à contourner les filtres de sécurité de l'IA Stable Diffusion ont montré un taux de réussite aussi faible qu'environ 33 %.

    En revanche, SneakyPrompt a obtenu un taux moyen de réussite d'environ 96 % lorsqu'il était confronté à Stable Diffusion et d'environ 57 % avec DALL-E 2. Selon les auteurs de l'étude, les implications de cette découverte sont préoccupantes, car elles soulignent le potentiel d'abus et soulèvent des questions quant à la fiabilité de la modération automatisée des contenus. Ces résultats révèlent que les outils d'IA de génération d'images peuvent être exploités pour créer des contenus perturbateurs. Selon Cao, ces outils pourraient notamment produire des images de personnes réelles ayant un comportement répréhensible qu'elles n'ont jamais eu en réalité.

    À titre d'exemple, au début de l'année, les utilisateurs de Midjourney ont créé de fausses images montrant Donald Trump qui tente de résister tant bien que mal à une arrestation, mais également des images montrant l'ancien président des États-Unis en tenue de détenu et faisant du nettoyage dans une enceinte pénitentiaire. Mais ce n'est pas tout. Midjourney a également permis aux internautes de générer des images très réalistes montrant le pape François dans un manteau à la mode et le président français Emmanuel Macron ramassant des ordures dans les rues de Paris ou se mêlant aux forces de l'ordre pour encadrer des manifestants.

    Bien que les images aient été rapidement identifiées comme des deepfakes, il est à craindre que des acteurs malveillants utilisent Midjourney, DALL-E, Stable Diffusion ou d'autres outils similaires pour diffuser de fausses informations avec des images très réalistes à l'appui. À l'époque, David Holz, cofondateur et PDG de Midjourney, a déclaré que l'entreprise a tenté de résoudre les problèmes d'abus avec des correctifs de sécurité, mais les changements tentés n'ont pas pu résoudre les problèmes. La société a été obligée de suspendre les essais gratuits après que ces deepfakes sont devenus viraux sur la toile, tout en continuant à chercher d'autres solutions.

    L'été dernier, Midjourney a également banni un artiste pour avoir utilisé l'IA de génération d'œuvres d'art de l'entreprise pour créer des images de politiciens trompant leur femme. Bien que ces photos soient fausses, elles sont "hyperréalistes" et capables de tromper facilement la vigilance d'un public non averti. L'artiste a déclaré que son objectif était d'alerter le public sur les dangers potentiels de ce type d'IA pour les personnes, les entreprises et les gouvernements, mais il a été banni par Midjourney. L'entreprise n'a pas évoqué les raisons justifiant cette décision, mais les conditions d'utilisation de son modèle d'IA générative interdisent la création de telles images.

    Commentant les risques liés aux outils d'IA de génération d'images, Cao a déclaré : « nous espérons que cette attaque aidera les gens à comprendre à quel point les modèles d'IA de génération d'images peuvent être vulnérables ». Les chercheurs souhaitent à présent explorer les moyens de rendre les IA génératives plus robustes face aux adversaires. « L'objectif de notre travail sur les attaques est de rendre le monde plus sûr. Il faut d'abord comprendre les faiblesses des modèles d'IA, puis les rendre résistants aux attaques », a déclaré Cao. Les implications de ces résultats soulignent la nécessité d'affiner les mesures de sécurité des modèles d'IA.

    Les systèmes d'IA interprètent le langage différemment des humains, et les chercheurs soupçonnent ces systèmes d'interpréter certaines syllabes ou combinaisons de manière similaire à des mots d'autres langues, ce qui conduit à des associations inattendues. Il est essentiel de s'assurer qu'ils discernent avec précision et empêchent la création de contenus inappropriés, même lorsqu'ils sont confrontés à des entrées linguistiques trompeuses ou non conventionnelles. Selon l'équipe, il est impératif de s'attaquer à ces failles et de les rectifier afin de respecter les normes éthiques et d'empêcher l'utilisation abusive de l'IA pour générer des contenus inappropriés.

    L'équipe présentera ses conclusions en détail en mai 2024 lors du symposium de l'IEEE sur la sécurité et la protection de la vie privée, qui se tiendra à San Francisco. Cette recherche souligne l'urgence d'une vigilance continue et d'une amélioration itérative dans l'industrie de l'IA, préfigurant un avenir où la créativité numérique et les filtres de sécurité évolueront de concert pour faciliter un paysage virtuel responsable et sûr.

    Source : rapport de l'étude

    Et vous ?

    Quel est votre avis sur le sujet ?
    Que pensez-vous de l'exploit SneakyPrompt mis au point par les chercheurs ?
    Selon vous, pourquoi les modèles d'IA de génération d'images se comportent de cette façon ?
    Les entreprises développant ces systèmes d'IA sont-elles en mesure de corriger cette vulnérabilité ?

    Voir aussi

    Le modèle d'IA de génération d'images Midjourney suspend les essais gratuits après que les deepfakes sont devenus viraux, mais la société impute ce choix à la création excessive de comptes jetables

    « J'ai perdu tout ce qui me faisait aimer mon travail à cause du modèle d'IA Midjourney », affirme un artiste 3D qui raconte comment l'IA lui a arraché son travail du jour au lendemain

    L'IA de génération d'images la plus avancée de la Chine bloque déjà les contenus politiques, des entrées telles que "place Tiananmen" et "Xi Jinping" ne produisent aucun résultat

  8. #148
    Chroniqueur Actualités
    Avatar de Bruno
    Homme Profil pro
    Rédacteur technique
    Inscrit en
    Mai 2019
    Messages
    1 946
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : Cameroun

    Informations professionnelles :
    Activité : Rédacteur technique
    Secteur : High Tech - Produits et services télécom et Internet

    Informations forums :
    Inscription : Mai 2019
    Messages : 1 946
    Points : 37 850
    Points
    37 850
    Par défaut Impact de l'IA sur les arts et la société : L'IA fera-t-elle perdre du temps à tous ?
    L'impact de l'IA sur les arts et la société : à la lumière des événements de 2023, peut-on affirmer que l'IA fera perdre du temps à tout le monde ?
    Une analyse de Lincoln Michel

    Lincoln Michel, auteur du roman The Body Scout et du recueil de nouvelles Upright Beasts, soulève dans son billet de blog la question pertinente de l'impact de l'intelligence artificielle (IA) sur les arts et la société en général. Il commence par évoquer les événements de 2023, où les modèles d'IA ont réussi des examens tels que le LSAT, SAT et AP, suscitant ainsi des inquiétudes quant aux capacités de l’IA par rapport aux humains. Michel explore ensuite les performances de l'IA en demandant à différents programmes de créer une histoire de six mots sur les chaussures de bébé, mettant en lumière les limites et les contradictions de ces systèmes.

    L’IA pose aujourd’hui un dilemme ; il est décrit comme à la fois impressionnante et assez stupide. Certaines personnes critiquent l'utilisation du terme « intelligence artificielle » pour des algorithmes qui peuvent être sujets à des erreurs et irréfléchis, soulignant les défauts amusants de l'IA : ce qui offre un soulagement aux artistes qui craignaient initialement que leur profession soit menacée par ces technologies.

    Le sujet de l'impact de l'intelligence artificielle sur les arts et la société en général prend une tournure plus sombre en évoquant les conséquences réelles de l'IA, notamment le vol intellectuel perpétré par les grandes entreprises au détriment des artistes. Les artistes, acteurs et écrivains ont tous été confrontés à des utilisations non autorisées de leur travail par des algorithmes, entraînant des grèves et des poursuites.

    Nom : ia1B.png
Affichages : 2752
Taille : 318,3 Ko

    Autrefois réservés à une élite technologique restreinte, les systèmes d'IA texte-image gagnent en popularité et en puissance. Ces outils, généralement proposant quelques crédits gratuits avant de devenir payants, peuvent créer diverses images à partir de simples mots, certaines rappelant clairement le style de nombreux artistes, même s'il n'est pas évident qu'elles aient été réalisées par le même créateur. Les utilisateurs peuvent identifier ces artistes en utilisant des termes tels que « dans le style de » ou « par », suivis d'un nom spécifique.

    Les artistes enflamment le débat sur l'utilisation de leurs œuvres pour entraîner les outils d'IA

    Les utilisations actuelles de ces outils vont de l'amusement personnel à des applications commerciales. Cependant, la révélation que des artistes découvrent que leur travail est utilisé pour former des programmes d'IA soulève une inquiétude fondamentale : leur propre art est effectivement exploité pour entraîner des programmes informatiques qui pourraient éventuellement concurrencer leur gagne-pain.

    Les personnes qui génèrent des images avec des systèmes tels que Stable Diffusion ou DALL-E peuvent ensuite les vendre, avec des conditions spécifiques liées au droit d'auteur et à la propriété de ces images qui varient. Daniel Danger, illustrateur et graveur, exprime son refus de participer à une machine qui pourrait dévaloriser son travail, après avoir découvert que plusieurs de ses œuvres ont été utilisées pour entraîner Stable Diffusion.

    Certains artistes numériques ont porté plainte contre Midjourney et Stability AI, deux entreprises ayant lancé des générateurs d'images basés sur l'intelligence artificielle, capables de transformer des textes simples en images réalistes. Les artistes allèguent que ces entreprises ont enfreint leurs droits d'auteur en utilisant leurs œuvres, ainsi que celles de milliers d'autres artistes, pour former leurs générateurs d'images et produire des œuvres dérivées.

    L'auteur aborde ensuite la menace que l'IA pose au monde artistique, décrivant le risque de submersion par un excès de contenu généré par des algorithmes. Il mentionne le phénomène où plusieurs magazines de science-fiction ont interrompu leurs envois en raison d'une surabondance d'histoires écrites par l'IA. Michel souligne le problème du « pipeline » et se demande si l'IA produira vraiment 100 fois plus de lecteurs avec une production artistique accrue.

    Des milliers d'auteurs, dont Nora Roberts, Viet Thanh Nguyen, Michael Chabon et Margaret Atwood, ont uni leurs voix dans une lettre exhortant des entreprises d'intelligence artificielle telles qu'OpenAI et Meta à cesser d'utiliser leur travail sans autorisation ni compensation. Selon un rapport de The Authors Guild, le revenu médian d'un écrivain à temps plein aux États-Unis l'année dernière s'élevait à 23 000 dollars. Les revenus des écrivains ont également connu une baisse de 42 % entre 2009 et 2019.

    L'émergence d'applications d'IA génératives basées sur du texte, telles que GPT-4 et Bard, qui explorent le Web à la recherche de contenus d'auteurs sans autorisation ni rémunération, suscite des inquiétudes croissantes parmi les écrivains à travers le pays. Ces applications utilisent ensuite ces contenus pour créer de nouveaux éléments en réponse aux requêtes des utilisateurs.

    Alexander Chee, auteur à succès de romans tels qu'Édimbourg et La Reine de la nuit, souligne qu'il n'y a pas de nécessité pressante pour l'IA d'écrire un roman, sauf pour ceux qui cherchent à éviter de payer aux écrivains ce qu'ils méritent. Chee fait partie des quelque 8 000 auteurs qui ont récemment signé une lettre adressée aux dirigeants de six sociétés d'IA, dont OpenAI, Alphabet et Meta. La lettre souligne l'injustice de l'utilisation non autorisée de leurs travaux dans ces technologies, appelant à une indemnisation et à un dialogue ouvert.

    Mary Rasenberger, PDG de The Author's Guild, a créé cette lettre dans l'espoir d'encourager ces entreprises à trouver un accord amiable, évitant ainsi des poursuites coûteuses. Elle souligne que les litiges représentent des coûts considérables en temps et en argent.

    Le danger croissant des nouvelles technologies creusant les disparités économiques

    Lincoln Michel souligne les préoccupations éthiques liées à l'IA, affirmant que les défenseurs de cette technologie détourneraient l'attention en spéculant sur des futurs utopiques. Il met en garde contre le potentiel de l'IA d'enrichir les riches tout en appauvrissant le reste de la société, pointant du doigt des exemples concrets tels que l'utilisation de l'IA par des compagnies d'assurance maladie pour refuser des traitements nécessaires.

    L'intelligence artificielle aggraverait la disparité entre les riches et les pauvres, en automatisant des emplois pour les travailleurs peu qualifiés et en renforçant la demande et les salaires pour les professions hautement qualifiées. Les projections de PwC suggèrent que l'IA contribuera significativement au PIB mondial d'ici 2030, suscitant des inquiétudes quant aux pertes d'emplois massives et à l'accentuation des inégalités.

    Les robots devraient quadrupler d'ici 2025, avec des estimations prévoyant que 45 à 57 % des emplois pourraient être automatisés d'ici 2040. Bien que PwC suggère la création de nouveaux emplois liés à l'IA, des préoccupations subsistent quant à la quantité et à la nature de ces emplois. Il semble nécessaire d'anticiper les défis résultant de l'accroissement du fossé entre les riches et les pauvres engendré par l'IA.

    Le rapport du Fonds Monétaire International (FMI) met en lumière le risque croissant que les nouvelles technologies, en particulier l'automatisation et l'intelligence artificielle, creusent le fossé entre les pays développés et les pays en développement.

    Nom : sttt.jpg
Affichages : 1656
Taille : 26,9 Ko

    L'écart entre les économies avancées et les économies en développement se creuse au fur et à mesure que les robots remplacent les travailleurs (variations du PIB par habitant en pourcentage).

    L'étude se base sur un modèle examinant deux pays, l'un développé et l'autre en développement, où l'automatisation, représentée par l'utilisation de robots, menace de remplacer plutôt que de compléter la main-d'œuvre des pays en développement. Trois canaux distincts sont identifiés comme sources potentielles de divergence : la part de la production, les flux d'investissement et les termes de l'échange.

    Les implications incluent une augmentation des inégalités de revenus pendant la transition vers la révolution robotique, nécessitant des actions politiques ciblées pour stimuler la productivité, améliorer les compétences des travailleurs et atténuer les risques liés à la substitution de la main-d'œuvre par des robots. Le rapport souligne également l'importance de l'accumulation de capital humain et suggère que les pays en développement doivent agir rapidement pour éviter que la transition démographique tant attendue ne soit compromise par la menace de l'automatisation.

    L'analyse de Lincoln Michel dans son billet de blog sur l'influence de l'intelligence artificielle se distingue par son caractère perspicace et nuancé. De manière astucieuse, il examine les succès de l'IA dans des secteurs tels que les examens standardisés, mettant en évidence les préoccupations grandissantes liées à la rivalité entre les machines et les êtres humains.


    Le constat de Michel concernant la menace que représente l'IA pour le monde artistique, en soulignant le danger d'une surabondance de contenu généré par des algorithmes, est à la fois pertinent et inquiétant. Sa remise en question sur la pertinence d'une augmentation de la production artistique grâce à l'IA souligne un aspect essentiel à prendre en compte dans le débat sur l'impact de cette technologie. Il serait enrichissant d'approfondir l'exploration des solutions potentielles ou des moyens d'atténuer les risques identifiés, afin d'apporter une perspective plus équilibrée à la discussion.

    Un an après le lancement de ChatGPT, les inquiétudes de Lincoln Michel quant à une éventuelle substitution des artistes humains par l'intelligence artificielle s'atténuent. Bien que certains individus apprécient l'utilisation de l'IA à des fins créatives, il dit avoir des doutes quant à l'appétence du public à consommer (et encore moins à rémunérer) l'art généré par l'IA.

    Sources : Lincoln Michel's blog post, IMF

    Et vous ?

    L'analyse de Lincoln Michel est-elle pertinente ?

    Selon vous, en quoi la popularité croissante des systèmes d'IA soulève-t-elle des préoccupations fondamentales ?

    Croyez-vous que l'intelligence artificielle est susceptible de causer une perte de temps généralisée ?

    Voir aussi :

    Quand l'IA copie l'art : des artistes ont intenté une action en justice contre Midjourney et Stability AI pour violation de droit d'auteur, le procès pourrait changer la donne à l'ère de l'IA ?

    Des milliers d'auteurs s'opposent à l'exploitation de leur travail sans permission ni rémunération par l'IA générative, certains ont déjà intenté des actions en justice contre OpenAI

    Microsoft s'engage à payer les frais de justice si des clients sont poursuivis pour avoir utilisé son IA Copilot, sans s'inquiéter des plaintes pour violation de copyright

  9. #149
    Chroniqueur Actualités
    Avatar de Bruno
    Homme Profil pro
    Rédacteur technique
    Inscrit en
    Mai 2019
    Messages
    1 946
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : Cameroun

    Informations professionnelles :
    Activité : Rédacteur technique
    Secteur : High Tech - Produits et services télécom et Internet

    Informations forums :
    Inscription : Mai 2019
    Messages : 1 946
    Points : 37 850
    Points
    37 850
    Par défaut Des milliers d'artistes accusent Midjourney d'avoir utilisé leurs œuvres pour former un modèle d'IA
    Des milliers d'artistes accusent Midjourney d'avoir utilisé leurs œuvres pour former un modèle d'IA,
    l'industrie de l'IA exploite sans vergogne le travail créatif des individus pour ses propres gains

    Une base de données récemment divulguée révèle que la société Midjourney a utilisé plus de 16 000 artistes, y compris des enfants, pour former ses outils d'IA générateurs d'œuvres d'art. La liste inclut des artistes renommés tels que Damien Hirst, Banksy, et Picasso, ainsi que des figures contemporaines. Cette révélation a suscité des débats sur l'éthique de l'utilisation d'un groupe diversifié d'artistes et sur les implications morales de l'IA générative. Certains utilisateurs expriment des critiques sévères en qualifiant cette pratique de « vol systématique à grande échelle ». Cependant, qualifier cela de « vol systématique à grande échelle » est en réalité une caractérisation modérée. Il s'agit plutôt d'une violation manifeste de l'intégrité artistique, illustrant de manière flagrante la manière dont l'industrie de l'IA exploite éhontément le travail créatif des individus à des fins lucratives.

    Les implications juridiques de la production d'images par l'IA sont également soulevées, avec des litiges en cours sur les droits de propriété intellectuelle. Certains tribunaux soutiennent la protection par le droit d'auteur du contenu généré par l'IA, tandis que d'autres remettent en question la créativité humaine dans ce processus. Des appels à des actions juridiques supplémentaires contre des entreprises telles que Midjourney sont lancés par des artistes traditionnels. En parallèle, le débat sur les droits d'auteur s'étend à d'autres domaines, tels que la plainte du New York Times contre OpenAI et Microsoft pour l'utilisation de ses données dans l'entraînement de l'IA.

    Nom : Midjourney.png
Affichages : 6299
Taille : 707,5 Ko

    « J'ai perdu tout ce qui me faisait aimer mon travail à cause du modèle d'IA Midjourney », affirme un artiste 3D qui raconte comment l'IA lui a arraché son travail du jour au lendemain. Les experts en intelligence artificielle et les communicateurs technologiques ont depuis longtemps anticipé que l'IA serait la prochaine grande révolution dans le domaine technologique. Actuellement, avec l'émergence des grands modèles de langage (LLM), en particulier de l'IA générative, il semble que ces prédictions puissent se concrétiser. Ces nouvelles catégories d'outils d'IA ont le potentiel d'accélérer considérablement l'adoption de l'IA, même au sein d'organisations qui ne possèdent pas une expertise approfondie en IA ou en science des données. Selon les estimations de la Bank of America, l'IA pourrait stimuler l'économie mondiale de près de 15 700 milliards de dollars au cours des sept prochaines années.

    Cependant, cette révolution entraînera la perte de dizaines de millions d'emplois à l'échelle mondiale. Des secteurs tels que la rédaction de contenu, la synthèse, la comptabilité et la finance, le trading, le secrétariat de direction et la conception graphique sont particulièrement vulnérables. Dans le domaine de la conception graphique, Midjourney est l'un des modèles d'IA les plus discutés. Mis au point par un laboratoire de recherche indépendant du même nom basé à San Francisco, ce système d'IA est destiné à avoir un impact significatif sur les domaines de l'art, de l'imagination et de l'économie créative à l'avenir. Plusieurs organisations semblent déjà avoir commencé à l'adopter.

    DreamUp de DeviantArt : un changement de cap qui fait des remous dans la communauté artistique

    Pendant de nombreuses années, DeviantArt a occupé une place singulière dans le paysage des réseaux sociaux, bénéficiant d'une appréciation constante de la part de ses utilisateurs, les « déviants ». Contrairement à des plateformes telles que Twitter, Facebook et Instagram, DeviantArt a maintenu une croissance soutenue sans susciter de hostilité généralisée. Cette faveur découle en grande partie du fait que le site a conservé son objectif initial, offrant aux artistes la possibilité de partager leurs créations, qu'il s'agisse de paysages, de portraits, de bandes dessinées d'anime ou d'œuvres à la lisière de la fourrure.

    Cependant, récemment, DeviantArt a provoqué un mécontentement massif au sein de sa communauté en introduisant DreamUp, un « outil de génération d'images » alimenté par le modèle d'apprentissage profond Stable Diffusion, qui puise dans le travail de millions d'artistes réels. Cette annonce a ravivé le débat sur les générateurs d'images par IA, divisant les opinions entre ceux qui voient ces logiciels comme de nouveaux outils créatifs et ceux qui redoutent qu'ils ne compromettent les emplois et les communautés artistiques.

    Devant les critiques, DeviantArt a défendu DreamUp, affirmant qu'il offre de nouvelles possibilités créatives, mais la communauté a réagi vivement. Certains artistes se sentent « surpris, trahis et déçus » par cette décision, estimant que le site, forgé par plus de deux décennies de soutien artistique, les a abandonnés en se tournant soudainement vers les outils d'IA.

    Le fait que Stable Diffusion, et donc DreamUp, soit formé sur une vaste base de données comprenant des milliards d'images de l'internet, y compris des œuvres provenant de DeviantArt, a suscité des préoccupations majeures. Les artistes estiment que leur art et leur travail non rémunéré sont utilisés à leur insu, sans avoir donné leur consentement.

    Suite à la controverse, DeviantArt a légèrement ajusté sa position initiale, marquant désormais par défaut les artistes comme désinscrits du nouveau programme, bien que de nombreux artistes estiment que cette modification reste insatisfaisante. Le débat persiste quant aux implications éthiques de l'utilisation de l'IA dans le domaine artistique et à la manière dont les plateformes telles que DeviantArt devraient respecter les droits et le consentement des artistes.

    L'illustratrice Megan Ruiz, établie à Los Angeles, souligne que le système d'opt-in de DeviantArt, censé servir de preuve de non-consentement à l'utilisation de leur travail dans des bases de données d'IA, est en réalité une simple déclaration sans effet réel. Elle affirme que cette étiquette ne dissuade pas l'utilisation de leur travail pour former des modèles d'IA, et estime que le droit d'auteur inhérent des artistes serait un argument bien plus persuasif dans le cadre d'un éventuel litige avec une société d'IA.

    Pete, partageant un sentiment similaire, considère le système d'opt-in comme un « geste creux » visant à calmer les artistes mécontents. Il exprime également que la gestion de toute cette situation par DeviantArt a érodé la confiance qu'il avait envers la plateforme, ce qui l'a conduit, ainsi qu'une vague d'autres artistes, à supprimer complètement leurs comptes DeviantArt en signe de protestation. Pete souligne la perte de plusieurs années de travail et de représentation visuelle de son évolution artistique, déclarant qu'il n'a aucune intention de revenir en arrière.

    Les récents changements ont également suscité des doutes quant à l'avenir de Megan sur la plateforme. Bien qu'ayant eu des relations positives avec l'entreprise par le passé, elle envisage sérieusement de supprimer son compte, soulignant qu'elle garde espoir que l'entreprise rectifiera sa décision, mais craint que cela ne se produise pas.

    Si une leçon positive peut être tirée de cette controverse, c'est qu'elle a ravivé le débat sur les droits des artistes face aux nouvelles technologies telles que DreamUp, démontrant que les artistes sont prêts à se mobiliser et à prendre des risques pour proposer des alternatives. Megan souligne qu'il existe une manière éthique d'utiliser cette technologie, en créant une base de données éthique avec des images et des textes sous licence. Cependant, elle constate que cela n'est pas encore mis en œuvre principalement en raison de l'aspect non rentable, contrairement au vol d'œuvres protégées par des droits d'auteur, qui est plus rentable.

    Pete reconnaît que l'art de l'IA peut être intégré de manière constructive, soulignant que les artistes ont une inclination naturelle à adopter les nouvelles technologies. Cependant, il met en lumière le problème de la rapide prolifération des nouvelles tendances technologiques au détriment de l'éthique.

    L'un des secrets les mieux gardés de l'IA générative est qu'elle dépend d'une vaste collection de travaux humains réels pour ses données d'entraînement. Des musiciens comme Drake et Kurt Cobain sont transformés en cobayes pour les robots musiciens du futur, tandis que des auteurs de renom ont accusé la technologie de « vol systématique à grande échelle ». Les communautés d'artistes visuels se sont également défendues contre des modèles tels que Stable Diffusion, affirmant qu'ils « raclent » les données de sites tels que DeviantArt de manière contraire à l'éthique.

    Le week-end dernier, cependant, l'ampleur du problème est devenue encore plus évidente, grâce à la publication d'une base de données qui contiendrait une liste d'artistes utilisés pour entraîner Midjourney, l'un des principaux générateurs d'art par IA du moment.

    Diffusée sur les sites de médias sociaux au cours du Nouvel An, la base de données se présente sous la forme d'une feuille de calcul Google Sheets, répertoriant diverses périodes, styles, genres, mouvements, supports et techniques qui ont apparemment été utilisés pour entraîner le programme. Mais ce qui fait le plus scandale, ce sont les noms des artistes individuels - plusieurs milliers - dont les œuvres ont apparemment été introduites dans la machine dans le cadre de son processus d'entraînement.

    La liste est tirée d'un document de 24 pages inclus dans un amendement à une plainte en recours collectif contre Midjourney, Stability AI et DeviantArt, déposée pour la première fois en janvier 2023. L'amendement a suivi, avec 455 pages de preuves supplémentaires, le 29 novembre 2023. Parmi les artistes cités figurent des illustrateurs commerciaux, des créateurs de systèmes de jeu et des artistes numériques, ainsi que des artistes modernes et contemporains de premier ordre.

    Parmi les plus grands noms, citons Yayoi Kusama, Frida Kahlo, Banksy, Guerrilla Girls, HR Giger, Harmony Korine, Anish Kapoor, David Hockney, Damien Hirst, Cy Twombly, Walt Disney, Picasso, Egon Schiele, Mark Rothko, Francis Bacon et Andy Warhol (ce qui semble assez approprié en fait). En remontant un peu plus loin, la base de données couvre également des artistes comme Matisse, Monet et Vincent van Gogh, ainsi que des périodes artistiques plus larges et des styles « de base » tels que le cottagecore, le glitchcore, le gorpcore et le gorecore.

    Les fans du jeu de cartes à collectionner Magic : The Gathering ont fait remarquer que la liste comprend même l'œuvre d'un enfant de six ans, Hyan Tran, qui a été invité à donner son avis sur un personnage du jeu dans le cadre d'une collecte de fonds organisée en 2021 au profit de l'hôpital pour enfants de Seattle.

    L'accès à la feuille de calcul a été restreint depuis qu'elle a été initialement partagée sur les médias sociaux, mais elle est conservée par l'Internet Archive. L'amendement lui-même a été déposé en réponse au rejet des plaintes de plusieurs artistes contre Midjourney et Stability AI le 30 octobre, par un juge du tribunal fédéral de Californie.

    Cette bataille juridique est loin d'être la seule à tourner autour de la génération d'images par l'IA à l'heure actuelle. En septembre 2023, l'artiste Jason Allen a perdu un appel qui lui aurait permis de protéger par le droit d'auteur son œuvre d'art Théâtre d'Opéra Spatial, générée par l'IA et primée, en raison de l'absence de paternité humaine.

    Allen, comme d'autres artistes de l'IA, s'est engagé à poursuivre son combat pour faire évoluer la législation sur le droit d'auteur ; parallèlement, des artistes plus traditionnels maintiendront sans doute la pression sur des entreprises d'IA comme Midjourney ou Stability AI jusqu'à ce qu'une décision juridique soit prise. En attendant, il a été conseillé aux artistes de rechercher leur propre nom dans les bases de données et d'intenter une action en justice si nécessaire.

    L'industrie de l'IA exploite sans vergogne le travail créatif des individus pour ses propres gains

    La révélation selon laquelle la société Midjourney a exploité plus de 16 000 artistes, y compris des enfants, pour entraîner ses outils d'IA générateurs d'œuvres d'art, est tout simplement scandaleuse. Cela va bien au-delà de l'éthique et soulève des questions fondamentales sur le respect des droits des artistes et la nature exploitative de l'industrie de l'IA.

    L'inclusion de noms d'artistes renommés tels que Damien Hirst, Banksy et Picasso dans cette liste expose un manque total de considération pour le travail créatif de ces artistes. Il est choquant de constater que des figures emblématiques de l'art contemporain ont été utilisées sans leur consentement dans le processus d'entraînement de l'IA de Midjourney. Cela représente un véritable mépris envers les artistes et une exploitation flagrante de leur travail.

    L'utilisation d'enfants dans cette entreprise est tout simplement inacceptable. Il est inconcevable que Midjourney ait eu le culot d'inclure des enfants, dont un de six ans, dans cette liste. Cela va au-delà de la simple éthique et soulève des préoccupations graves concernant la protection des mineurs et le respect de leur droit à la vie privée.

    Les débats sur l'éthique de l'IA générative sont plus que légitimes dans ce contexte. Qualifier cela de « vol systématique à grande échelle » est une description modérée. C'est une violation flagrante de l'intégrité artistique et un exemple de plus de la manière dont l'industrie de l'IA exploite sans vergogne le travail créatif des individus pour ses propres gains.

    Du point de vue juridique, la situation est tout aussi troublante. Les litiges en cours sur les droits de propriété intellectuelle soulignent la nécessité urgente d'une réglementation stricte pour protéger les artistes contre une telle exploitation. Les tribunaux qui remettent en question la créativité humaine dans le processus d'IA soulèvent des doutes sérieux quant à la compréhension de la valeur artistique réelle par le système judiciaire.


    En ce qui concerne DeviantArt, la plateforme a trahi la confiance de sa communauté en introduisant DreamUp, un outil alimenté par l'IA, rompant ainsi avec son engagement initial envers les artistes. La suppression de comptes en signe de protestation est une réponse compréhensible à cette trahison, et DeviantArt devrait faire face à des conséquences sérieuses pour avoir sacrifié l'intégrité artistique au profit de l'IA.

    In finé, ces révélations soulignent un échec majeur de l'industrie de l'IA à respecter les droits et l'intégrité des artistes. C'est une honte absolue et nécessite une action immédiate pour réglementer cette industrie et protéger les créateurs contre de telles pratiques exploiteuses.

    Source : Dazed

    Et vous ?

    Quel est votre avis sur le sujet ?

    Partagez-vous l'idée selon laquelle l'industrie de l'IA exploite sans vergogne le travail créatif des individus pour ses propres gains ?

    Pensez-vous que l'IA remplacera les artistes 3D et les designers dans un avenir proche ?

    Quels impacts les outils d'IA tels que Midjourney pourraient-ils avoir sur les métiers de création visuelle ?

    Voir aussi :

    « J'ai perdu tout ce qui me faisait aimer mon travail à cause du modèle d'IA Midjourney », affirme un artiste 3D qui raconte comment l'IA lui a arraché son travail du jour au lendemain

    Comment le Japon prévoit d'utiliser des avatars, des robots et l'IA dans divers secteurs, pour pallier une pénurie de main-d'œuvre

    Quand l'IA copie l'art : des artistes ont intenté une action en justice contre Midjourney et Stability AI pour violation de droit d'auteur, le procès pourrait changer la donne à l'ère de l'IA

  10. #150
    Membre régulier
    Profil pro
    Inscrit en
    Juillet 2008
    Messages
    15
    Détails du profil
    Informations personnelles :
    Localisation : France

    Informations forums :
    Inscription : Juillet 2008
    Messages : 15
    Points : 73
    Points
    73
    Par défaut Pas la première fois que la technologie menace le travail artistique original
    Pas la première fois que la technologie menace le travail artistique original puisque on a crié à la fin des artistes avec la création de la photographie, du cinéma, de la vidéo, du traitement informatique.

    Mais il y a toujours des artistes, même deux siècles après la première image photographique.

    Ce qui va se passer avec les IA génératives, correspondra un peu à ce qui se passe avec la pâte à modeler de couleur : les mélanges successifs d'IA se pompant les une les autres, quand il n'y aura plus de réelle création originale, donneront un gris uniforme et moche.

    Quand aux artistes, ils trouveront une façon de valoriser leur créativité tout en la protégeant des voleurs, puisqu'il n'y a pas d'autre solution. Tout ça annonce surtout la fin d'une époque d'auto-publication et de liberté d'expression, malheureusement.

  11. #151
    Chroniqueur Actualités
    Avatar de Bruno
    Homme Profil pro
    Rédacteur technique
    Inscrit en
    Mai 2019
    Messages
    1 946
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : Cameroun

    Informations professionnelles :
    Activité : Rédacteur technique
    Secteur : High Tech - Produits et services télécom et Internet

    Informations forums :
    Inscription : Mai 2019
    Messages : 1 946
    Points : 37 850
    Points
    37 850
    Par défaut Glaze, l'outil contre le mimétisme de l'IA, confronté à des controverses sur la protection des artistes
    Glaze, outil contre le mimétisme de l'IA, piraté : les artistes font face à des délais d'attente pour la protection contre l'imitation par l'IA,
    au milieu des MAJ des conditions de service

    Les artistes sont de plus en plus inquiets face aux menaces posées par l'intelligence artificielle (IA), capable de copier leurs styles uniques. En réponse à cette préoccupation, l'outil Glaze, qui ajoute un bruit imperceptible aux images pour empêcher leur utilisation par les générateurs d'images IA, est en forte demande. Cependant, sa capacité à protéger efficacement les œuvres est remise en question par des chercheurs en sécurité. Ces derniers ont démontré des méthodes pour contourner ses protections. En conséquence, l'équipe de Glaze travaille à améliorer l'outil, mais les artistes doivent faire face à des retards pour accéder à ces protections. En attendant, les débats se poursuivent sur la meilleure manière de protéger les artistes, certains suggérant même d'éviter de publier leurs œuvres en ligne.

    Les modèles d'IA générative ont changé la façon dont nous créons et consommons le contenu, en particulier les images et l'art. Les modèles de diffusion tels que MidJourney et Stable Diffusion ont été entraînés sur de vastes ensembles de données d'images récupérées en ligne, dont beaucoup sont protégées par des droits d'auteur, privées ou sensibles. De nombreux artistes ont découvert un nombre important de leurs œuvres d'art dans des données d'entraînement telles que LAION-5B, sans qu'ils le sachent, sans leur consentement, sans qu'ils soient crédités ou sans qu'ils reçoivent une compensation.

    Pour ne rien arranger, nombre de ces modèles sont désormais utilisés pour copier des artistes individuels, par le biais d'un processus appelé "imitation de style". Les utilisateurs particuliers peuvent prendre des œuvres d'art d'artistes humains, effectuer un « réglage fin » ou LoRA sur des modèles tels que la diffusion stable, et aboutir à un modèle capable de produire des images arbitraires dans le "style" de l'artiste cible, lorsqu'il est évoqué avec son nom en guise d'invite. Les artistes indépendants populaires trouvent en ligne des fac-similés de mauvaise qualité de leurs œuvres d'art, souvent avec leurs noms encore intégrés dans les métadonnées des messages-guides du modèle.

    Nom : Glaze.jpg
Affichages : 7232
Taille : 6,8 Ko

    Le mimétisme stylistique produit un certain nombre de conséquences néfastes qui peuvent ne pas être évidentes à première vue. Les artistes dont le style est intentionnellement copié perdent non seulement des commissions et des revenus de base, mais les copies synthétiques de mauvaise qualité diffusées en ligne diluent leur marque et leur réputation. Plus important encore, les artistes associent leur style à leur identité même. Voir le style artistique qu'ils ont mis des années à développer utilisé pour créer du contenu sans leur consentement ou leur compensation s'apparente à une usurpation d'identité. Enfin, le mimétisme et son impact sur les artistes à succès ont démoralisé et découragé les jeunes artistes en herbe.

    Art et intelligence artificielle : tensions croissantes autour de l'utilisation non autorisée

    Les artistes découvrent que leur travail est utilisé pour entraîner des IA, ce qui soulève des préoccupations quant à la pérennité de leur gagne-pain. En quelques mois, des millions de personnes ont adopté ces systèmes d'IA pour créer des œuvres variées, suscitant des débats sur la propriété intellectuelle et les droits d'auteur. Des artistes, comme Daniel Danger et Tara McPherson, expriment leur inquiétude face à l'utilisation non autorisée de leurs œuvres et la menace que les générateurs d'images IA représentent pour leur carrière. Cependant, les solutions juridiques et pratiques pour protéger leur travail restent limitées et complexes.

    En décembre 2022, les utilisateurs d'ArtStation ont protesté contre les images générées par IA, estimant que ces dernières volaient le travail des artistes. La plateforme, utilisée par les créateurs de jeux, films et médias, n'a pas de politique contre ces images, ce qui a suscité une colère croissante parmi ses utilisateurs. Les artistes ont spammé leurs portfolios avec des images de protestation, conduisant ArtStation à mettre en place une balise "NoAI" pour empêcher l'utilisation de leurs œuvres par les IA. Cependant, cette réponse n'a pas apaisé les utilisateurs, qui réclament une interdiction complète des images générées par IA sur le site.

    Lincoln Michel, auteur de The Body Scout et Upright Beasts, aborde l'impact de l'intelligence artificielle sur les arts et la société dans son blog. En 2023, les IA réussissant des examens tels que le LSAT et le SAT ont suscité des inquiétudes. Michel démontre les limites de l'IA en demandant à différents programmes de créer une histoire de six mots, soulignant ses imperfections. Il critique l'utilisation abusive de l'IA par les grandes entreprises qui exploitent les œuvres d'artistes, menant à des grèves et poursuites. Des artistes, dont Daniel Danger, protestent contre l'utilisation non autorisée de leurs œuvres par des IA comme Stable Diffusion et DALL-E.

    La menace de l'IA sur le monde artistique se manifeste par une surabondance de contenus générés par des algorithmes, perturbant même des magazines de science-fiction. Des milliers d'auteurs, comme Nora Roberts et Margaret Atwood, demandent aux entreprises d'IA de cesser d'utiliser leurs travaux sans compensation.

    L'émergence d'IA génératives comme GPT-4 et Bard, qui utilisent des contenus sans autorisation, suscite des inquiétudes. Alexander Chee souligne que l'IA n'est pas nécessaire pour écrire des romans, pointant les motivations financières derrière cette technologie. Michel met en garde contre les disparités économiques exacerbées par l'IA, qui pourrait enrichir les riches et appauvrir les autres, automatisant des emplois peu qualifiés et augmentant la demande pour les professions hautement qualifiées. Les projections de PwC indiquent une contribution significative de l'IA au PIB mondial d'ici 2030, mais aussi des pertes d'emplois massives et l'accentuation des inégalités.

    Début 2023, des milliers d'artistes accusent Midjourney d'avoir utilisé leurs œuvres pour former un modèle d'IA. Une base de données divulguée révèle que Midjourney a exploité plus de 16 000 artistes, y compris des enfants, pour ses outils d'IA. La liste inclut des artistes célèbres comme Damien Hirst, Banksy et Picasso. Cette révélation soulève des débats éthiques et des accusations de « vol systématique à grande échelle », mettant en lumière l'exploitation flagrante du travail créatif pour des profits lucratifs.

    Les implications juridiques sont également discutées, avec des litiges en cours sur les droits de propriété intellectuelle. Certains tribunaux soutiennent la protection par le droit d'auteur du contenu généré par l'IA, tandis que d'autres remettent en question la créativité humaine dans ce processus. Des artistes traditionnels appellent à des actions juridiques supplémentaires contre des entreprises comme Midjourney. Parallèlement, le débat sur les droits d'auteur s'étend à d'autres domaines, impliquant des entreprises telles qu'OpenAI et Microsoft.

    Un artiste 3D exprime sa frustration après avoir perdu son travail à cause de l'IA de Midjourney. L'émergence de grands modèles de langage et d'IA générative pourrait accélérer l'adoption de l'IA, avec des prévisions de stimulation de l'économie mondiale de près de 15 700 milliards de dollars d'ici sept ans. Cependant, cette révolution entraînera des pertes massives d'emplois dans des secteurs vulnérables comme la conception graphique, où Midjourney est particulièrement influent.

    En somme, l'industrie de l'IA exploite sans vergogne le travail créatif des individus pour ses propres gains, soulevant des préoccupations éthiques et juridiques importantes. Des artistes musicaux célèbres, dont Pearl Jam, Nicki Minaj et Billie Eilish, ainsi que plus de 200 autres, ont signé une lettre ouverte de l'Alliance des droits des artistes critiquant l'utilisation de l'intelligence artificielle (IA) dans la création musicale. Ils dénoncent l'IA générative comme une menace pour les droits des artistes et leur art, soulignant les risques de violation des droits d'auteur et de dévalorisation du travail artistique. Cette lettre appelle à une action pour empêcher l'IA de remplacer ou de dévaluer le travail des artistes humains, et insiste sur la nécessité d'une rémunération équitable.

    L'impact de Glaze et les défis persistants de la protection des œuvres

    Il existe des moyens de défense contre l'apprentissage par l'IA, tels que Glaze, un outil qui ajoute une quantité imperceptible de bruit aux images pour empêcher les générateurs d'images de copier le style des artistes. Toutefois, ces solutions ne sont pas permanentes, surtout dans un contexte où les entreprises technologiques s'efforcent de maximiser leurs profits en développant des modèles d'IA toujours plus avancés. Ces progrès menacent de diluer les marques des artistes et de les remplacer sur le marché.

    Glaze est conçu pour protéger les artistes en perturbant le mimétisme des modèles d'IA. Il comprend les modèles d'IA qui s'entraînent sur l'art humain et utilise des algorithmes d'apprentissage automatique pour apporter des modifications minimales aux œuvres d'art. Ces modifications sont invisibles pour les humains mais rendent les œuvres radicalement différentes pour les modèles d'IA. Par exemple, un portrait réaliste vitrifié peut sembler inchangé à un humain, mais un modèle d'IA le percevra comme un style abstrait moderne, à la Jackson Pollock. Ainsi, lorsqu'on demande au modèle de produire une œuvre imitant l'artiste original, le résultat sera très différent de ce qui est attendu.

    Damien Riehl et Noah Rubin ont proposé une solution pour libérer les mélodies et les musiciens des poursuites pour plagiat en générant toutes les combinaisons possibles de mélodies et en les plaçant sous licence libre Creative Commons Zero. Chase Emmons suggère que malgré la domination potentielle de l'IA dans la musique populaire, la demande pour la musique humaine restera forte en raison de son authenticité. Albert Fong met en garde contre les conséquences d'une réglementation inadéquate de l'IA sur les industries créatives, tandis que David Usher exprime des sentiments mitigés sur l'avenir de la musique générée par l'IA et souligne la nécessité de soutenir la musique humaine dans un paysage numérique dominé par l'IA.

    La situation des artistes face aux générateurs d'images par IA est complexe et préoccupante. Glaze, conçu pour protéger les œuvres artistiques du mimétisme de l'IA, semble être une bouée de sauvetage pour de nombreux créateurs. Cependant, malgré ses promesses et son adoption croissante, Glaze rencontre des défis majeurs, notamment les attaques visant à contourner ses protections et les retards dans l'approbation des demandes d'accès.

    Le problème fondamental réside dans l'équilibre délicat entre l'innovation technologique et la protection des droits des créateurs. Les générateurs d'images par IA s'améliorent constamment, menaçant l'unicité des œuvres d'art et la reconnaissance de leurs auteurs. Les entreprises technologiques, motivées par les profits, mettent à jour leurs conditions d'utilisation pour extraire un maximum de données sans consentement explicite des artistes, exacerbant le problème.

    Glaze ajoute du bruit imperceptible aux images pour empêcher l'IA de copier les styles des artistes, mais cette solution est temporaire, comme l'admet son créateur Ben Zhao. Des chercheurs ont déjà trouvé des moyens de contourner ces protections. Cette réalité souligne la nécessité d'une amélioration continue des outils de défense et d'une vigilance accrue face aux nouvelles menaces.

    Les retards dans l'approbation des demandes d'accès à Glaze exacerbent la frustration des artistes, qui se sentent vulnérables face à la menace de voir leurs œuvres copiées sans leur consentement. Le processus de vérification manuel, bien que nécessaire pour empêcher les abus, ralentit la diffusion de l'outil à un moment où sa demande est en forte hausse. Cette situation est d'autant plus critique que les attaques contre Glaze montrent que même les meilleures protections actuelles ne sont pas infaillibles.

    Ben Zhao, professeur à l'université de Chicago et créateur de ces outils, a déclaré que les retards dans l'approbation d'un nombre « croissant » de demandes d'accès étaient "graves". Comme il l'a récemment mentionné sur X (anciennement Twitter), l'"explosion de la demande" en juin ne se poursuivra probablement que si les menaces liées à l'IA continuent d'évoluer. Par conséquent, dans un avenir prévisible, les artistes en quête de protections contre l'IA devront patienter.


    Le débat entre l'équipe de Glaze et les chercheurs en sécurité de Zurich sur la robustesse des protections souligne l'importance de la transparence et de la collaboration dans le développement de solutions de défense. Les critiques des chercheurs, bien que potentiellement déstabilisantes, peuvent également conduire à des améliorations nécessaires. Cependant, la publication des vulnérabilités par les chercheurs sans une collaboration préalable peut aussi mettre les artistes en danger en exposant leurs œuvres à des risques immédiats.

    La situation actuelle des artistes rappelle l'importance d'une approche multifacette pour la protection de leurs œuvres. Outre les outils techniques comme Glaze, il est crucial de promouvoir des protections juridiques et des réglementations claires contre l'utilisation non autorisée des œuvres d'art par les IA.

    Sources : Nicholas Carlini in a blog post, glaze(1, 2)

    Et vous ?

    Quel est votre avis sur le sujet ?

    Dans quelle mesure Glaze et d'autres outils similaires peuvent-ils réellement protéger les artistes contre la copie par des IA de plus en plus sophistiquées ?

    Les méthodes de contournement démontrées par les chercheurs en sécurité remettent-elles en question l'efficacité à long terme de Glaze pour protéger les œuvres artistiques ?

    Quelles alternatives existent-elles pour les artistes qui cherchent à protéger leurs créations, compte tenu des limitations actuelles des outils comme Glaze ?

    Que pensez-vous de la décision de ne pas publier des œuvres en ligne pour se prémunir contre les IA génératives : êtes-vous favorable ou opposé ?

    Voir aussi :

    Ces artistes ont découvert que leur travail était utilisé pour entraîner l'IA et maintenant ils sont furieux

    Les artistes se révoltent contre les œuvres d'art générées par l'IA sur le site de portfolios ArtStation et inondent la plateforme d'images portant le message : "non aux images générées par l'IA"

    L'impact de l'IA sur les arts et la société : à la lumière des événements de 2023, peut-on affirmer que l'IA fera perdre du temps à tout le monde ? Une analyse de Lincoln Michel

    Des milliers d'artistes accusent Midjourney d'avoir utilisé leurs œuvres pour former un modèle d'IA, l'industrie de l'IA exploite sans vergogne le travail créatif des individus pour ses propres gains

  12. #152
    Membre à l'essai
    Profil pro
    Inscrit en
    Janvier 2011
    Messages
    10
    Détails du profil
    Informations personnelles :
    Localisation : France

    Informations forums :
    Inscription : Janvier 2011
    Messages : 10
    Points : 21
    Points
    21
    Par défaut
    L’intelligence ne peut être artificielle puisqu’elle a besoin de la conscience, douée de synthèse vibratoire le cœur
    Le libre choix ne peut être réalisé par un arbitre, puisqu’il fait son choix en suivant des règles comme une machine
    donc on a une Intelligence libre avec un Arbitrage artificiel
    l'artiste existe bien mais sans compétence purement manuel ou artisanal à mon sens

  13. #153
    Communiqués de presse

    Femme Profil pro
    Traductrice Technique
    Inscrit en
    Juin 2023
    Messages
    1 629
    Détails du profil
    Informations personnelles :
    Sexe : Femme
    Localisation : France

    Informations professionnelles :
    Activité : Traductrice Technique

    Informations forums :
    Inscription : Juin 2023
    Messages : 1 629
    Points : 114 087
    Points
    114 087
    Par défaut Les artistes remportent une grande victoire dans l'affaire des droits d'auteur contre les IA générateurs d'art
    Les artistes remportent une grande victoire dans l'affaire des droits d'auteur contre les IA générateurs d'art, l'ordonnance pourrait impliquer d'autres entreprises qui ont utilisé Stable Diffusion.

    Les artistes remportent une grande victoire dans l'affaire des droits d'auteur contre les IA générateurs d'art. Le juge a conclu que Stable Diffusion aurait été construit à partir de matériel protégé par le droit d'auteur. Il a également rejeté la demande des sociétés à identifier les œuvres spécifiques et individuelles objets de la plainte. L'ordonnance pourrait impliquer d'autres entreprises qui ont utilisé Stable Diffusion, le modèle d'IA en cause dans l'affaire.

    Depuis l'année dernière, des artistes ont lancé des poursuites contre les intelligences artificielles (IA) générateurs d'art. Les plaintes portaient sur l'utilisation non compensée et non autorisée de milliards d'images téléchargées sur internet pour entraîner les systèmes d'intelligence artificielle. Mais le juge fédéral William Orrick, chargé de l'affaire, a rejeté la plupart des plaintes, hormis une plainte contre Stability AI.

    Le juge avait estimé que les plaintes pour violation du droit d'auteur ne pouvaient pas être déposées contre Midjourney et DeviantArt, concluant que les accusations étaient "défectueuses à de nombreux égards". Par contre la plainte pour contrefaçon directe à l'encontre de Stability AI a été autorisée sur la base d'allégations selon lesquelles la société aurait utilisé sans autorisation des images protégées par le droit d'auteur pour créer Stable Diffusion.

    Pour rappel, Stable Diffusion est un modèle d'intelligence artificielle générative de texte à image, publié en 2022 et basé sur des techniques de diffusion. Il a été le premier produit de Stability AI et est considérée comme faisant partie du boom actuel de l'IA. Selon des rapports antérieurs, son développement a impliqué des chercheurs du groupe CompVis de l'Université Ludwig Maximilian de Munich et de Runway, avec une donation informatique de Stability et des données de formation provenant d'organisations à but non lucratif.

    Récemment, les artistes ont franchi un obstacle majeur dans ce procès inédit. Le juge fédéral William Orrick a fait droit à toutes les plaintes pour violation du droit d'auteur et pour atteinte à la marque déposée, ce qui constitue une victoire décisive pour les artistes. Il a estimé que Stable Diffusion, l'outil de Stability AI capable de créer des images hyperréalistes en réponse à une invite de quelques mots seulement, pouvait avoir été "construit dans une large mesure sur des œuvres protégées par le droit d'auteur" et créé dans l'intention de "faciliter" la contrefaçon. L'ordonnance pourrait impliquer dans le litige toute entreprise d'IA ayant incorporé le modèle dans ses produits.

    Nom : 1.jpg
Affichages : 6125
Taille : 22,1 Ko

    Les plaintes déposées contre les entreprises pour rupture de contrat et enrichissement sans cause, ainsi que pour violation de la loi sur le droit d'auteur (Digital Millennium Copyright Act) pour la suppression d'informations identifiant la propriété intellectuelle, ont été rejetées. L'affaire va passer à l'étape de la découverte, au cours de laquelle les artistes pourraient découvrir des informations sur la manière dont les entreprises d'IA ont recueilli des documents protégés par le droit d'auteur, qui ont ensuite été utilisés pour former de grands modèles de langage.

    Karla Ortiz, qui a intenté le procès, a travaillé sur des projets tels que Black Panther, Avengers : Infinity War et Thor : Ragnarok, et on lui attribue la conception du personnage principal de Doctor Strange. Face à la montée en puissance des outils d'IA dans le pipeline de production, les artistes conceptuels comme Ortiz font le point sur les déplacements à venir si la technologie progresse et si les tribunaux se rangent du côté des entreprises d'IA sur certaines questions de propriété intellectuelle posées par les outils.

    L'adoption généralisée de l'IA dans le processus de production cinématographique dépendra en grande partie de la manière dont les tribunaux se prononceront sur les nouvelles questions juridiques soulevées par la technologie. Parmi les quelques considérations qui freinent le déploiement de cette technologie, il y a le spectre d'une décision de justice selon laquelle l'utilisation de matériel protégé par des droits d'auteur pour former des systèmes d'IA constitue une violation des droits d'auteur. Un autre facteur est que les œuvres générées par l'IA ne sont pas éligibles à la protection des droits d'auteur.


    Première victoire des artistes contre les intelligences artificielles (IA) générateurs d'art

    Le procès, intenté l'année dernière, porte sur l'ensemble de données LAION, qui a été constitué à partir de 5 milliards d'images prétendument récupérées sur l'internet et utilisées par Stability et Runway pour créer Stable Diffusion. Elle met en cause Midjourney, qui a entraîné son système d'intelligence artificielle à l'aide du modèle, ainsi que DeviantArt, qui a utilisé le modèle dans DreamUp, un outil de génération d'images.

    Lors du rejet de la demande, Stability et Runway ont contesté les arguments des artistes selon lesquels elles avaient induit une violation du droit d'auteur et que les modèles de Stable Diffusion étaient eux-mêmes des œuvres contrefaites. Selon cette théorie, elles ont incité à la contrefaçon en distribuant les modèles alors que tout tiers utilise les modèles fournis par la société, l'exposant ainsi à des dommages-intérêts potentiellement considérables.

    Se rangeant du côté des artistes, Orrick a conclu qu'ils avaient suffisamment allégué que Stable Diffusion était construit à partir de matériel protégé par le droit d'auteur et que "la manière dont le produit fonctionne invoque nécessairement des copies ou des éléments protégés de ces œuvres". Dans une conclusion qui pourrait poser problème aux entreprises d'intelligence artificielle qui utilisent le modèle, il a déclaré que Stability et Runway auraient pu favoriser la violation des droits d'auteur et que Stable Diffusion a été "créé pour faciliter cette violation par conception".

    Lorsqu'il a rejeté les plaintes pour contrefaçon l'année dernière, le tribunal a estimé que la théorie de l'affaire n'était pas claire quant à l'existence de copies d'images d'entraînement stockées dans Stable Diffusion qui sont ensuite utilisées par DeviantArt et Midjourney. Il a souligné les arguments de la défense selon lesquels il est impossible que des milliards d'images "soient compressées dans un programme actif" comme Stable Diffusion.

    À la suite de ce rejet, les artistes ont modifié l'un des volets de leur action en justice en affirmant que Midjourney avait entraîné séparément son produit sur l'ensemble de données LAION et qu'elle incorporait Stable Diffusion dans son propre produit.

    Autre défaite pour les sociétés d'intelligence artificielle, le tribunal a rejeté les arguments selon lesquels l'action en justice devait identifier les œuvres spécifiques et individuelles que chacun des artistes ayant déposé la plainte prétendait avoir été utilisées pour l'entraînement.

    "Étant donné les faits uniques de cette affaire - notamment la taille des ensembles de données de LAION et la nature des produits des défendeurs, y compris les allégations supplémentaires contestant la transparence du logiciel "open source" au cœur de Stable Diffusion - ce niveau de détail n'est pas nécessaire pour que les plaignants puissent exposer leurs revendications", a déclaré l'ordonnance.

    Nom : 2.jpg
Affichages : 1065
Taille : 27,1 Ko

    DeviantArt et Midjourney également au cœur du procès

    Lors d'une audience en mai, DeviantArt a prévenu que plusieurs autres entreprises seraient poursuivies si les plaintes pour infraction déposées par les artistes à l'encontre d'entreprises qui utilisent simplement Stable Diffusion et n'ont pas participé à sa création étaient rejetées. "Il est difficile d'imaginer les ravages que causerait l'autorisation de poursuivre DeviantArt", a déclaré Andy Gass, l'un des avocats de la société.

    "Ici, nous avons vraiment un nombre incalculable de parties qui ne sont pas dans une situation différente de la nôtre et qui pourraient faire l'objet d'une réclamation." Andy Gass a ajouté que DeviantArt "n'a pas développé de modèles d'intelligence artificielle" et que "tout ce qu'il est supposé avoir fait est de prendre le modèle de diffusion stable de StabilityAI, de le télécharger, de le mettre en ligne et d'offrir une version DreamUp aux utilisateurs".

    Le tribunal a également souligné que Midjourney produisait des images similaires à des œuvres d'artistes lorsque leurs noms étaient utilisés comme messages-guides. Ce fait, ainsi que les allégations selon lesquelles la société a publié sur son site des images incorporant les noms des plaignants pour montrer les capacités de son outil, ont servi de base pour permettre aux plaintes relatives aux marques d'aller de l'avant. La Cour a déclaré que la question de savoir si un consommateur serait induit en erreur par les actions de Stability en croyant que les artistes approuvent son produit pourra être examinée à un stade ultérieur de l'affaire.

    Dans un fil de discussion sur Discord, la plateforme sur laquelle Midjourney opère, le directeur général David Holz a publié les noms d'environ 4 700 artistes que son outil d'IA peut, selon lui, reproduire. Le directeur général de Stability, Prem Akkaraju, a ensuite déclaré que la société avait téléchargé des tonnes d'images sur l'internet et les avait compressées de manière à pouvoir "recréer" n'importe laquelle de ces images.

    Les avocats des artistes devraient chercher à obtenir des informations sur la manière dont Stability et Runway ont construit Stable Diffusion et l'ensemble de données LAION. Ils représentent Sarah Andersen, Kelly McKernan et Ortiz, entre autres.

    Source : Le juge fédéral William Orrick

    Et vous ?

    Quel est votre avis sur cette affaire ?
    D'après vous, quel serait le dénouement de ce procès ?

    Voir aussi :

    Une plainte en recours collectif est déposée contre Stability AI, Midjourney et DeviantArt pour violations du droit d'auteur, sous le couvert d'une prétendue « intelligence artificielle »

    L'IA perturbera d'innombrables emplois dans l'animation au cours des trois prochaines années, selon un rapport, soulignant à quel point l'impact de l'IA générative sera dévastateur pour les artistes

    Nightshade, l'outil gratuit qui « empoisonne » les modèles d'IA, est désormais disponible pour les artistes : Il pourrait être utilisé de manière abusive, restreignant l'évolution des modèles
    Publication de communiqués de presse en informatique. Contribuez au club : corrections, suggestions, critiques, ... Contactez le service news et Rédigez des actualités

  14. #154
    Chroniqueur Actualités

    Homme Profil pro
    Administrateur de base de données
    Inscrit en
    Mars 2013
    Messages
    8 979
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : Canada

    Informations professionnelles :
    Activité : Administrateur de base de données

    Informations forums :
    Inscription : Mars 2013
    Messages : 8 979
    Points : 207 824
    Points
    207 824
    Par défaut Plus de 13 500 artistes se mobilisent pour dénoncer l'exploitation de leurs œuvres par les entreprises d'IA
    Une coalition de plus de 13 500 artistes se mobilise pour dénoncer l'exploitation de leurs œuvres par les entreprises d'IA sans leur consentement,
    l'initiative met en lumière les pratiques controversées dans l'industrie

    Plus de 13 500 artistes de divers horizons ont uni leurs voix pour dénoncer l'exploitation de leurs œuvres par les entreprises d'intelligence artificielle (IA) sans leur consentement. Dans une déclaration, ils ont condamné « l'utilisation sans licence d'œuvres créatives » pour développer des systèmes d'intelligence artificielle tels que le ChatGPT d'OpenAI, estimant que cela constitue « une menace majeure et injuste pour les moyens de subsistance des personnes à l'origine de ces œuvres » et que cela « ne doit pas être autorisé ». Cette initiative met en lumière des pratiques controversées dans l'industrie technologique et ouvre un débat essentiel sur les droits d'auteur à l'ère numérique.

    Björn Ulvaeus (Abba), l'actrice Julianne Moore et le chanteur de Radiohead Thom Yorke figurent parmi les 13 500 signataires d'une déclaration des industries créatives avertissant les entreprises d'intelligence artificielle que l'utilisation sans licence de leurs œuvres constitue une « menace majeure et injuste » pour les moyens de subsistance des artistes.

    Cette déclaration s'inscrit dans le cadre des batailles juridiques entre les professionnels de la création et les entreprises technologiques concernant l'utilisation de leurs œuvres pour former des modèles d'intelligence artificielle tels que ChatGPT, et des allégations selon lesquelles l'utilisation de leur propriété intellectuelle sans autorisation constitue une violation du droit d'auteur.

    « L'utilisation sans licence d'œuvres créatives pour entraîner l'IA générative constitue une menace majeure et injuste pour les moyens de subsistance des personnes à l'origine de ces œuvres, et ne doit pas être autorisée », peut-on lire dans la déclaration.

    Des milliers de professionnels de la création dans les domaines de la littérature, de la musique, du cinéma, du théâtre et de la télévision ont apporté leur soutien à la déclaration, avec des auteurs comme Kazuo Ishiguro, Ann Patchett et Kate Mosse, des musiciens comme Robert Smith de The Cure et le compositeur Max Richter, et des acteurs comme Kevin Bacon, Rosario Dawson et F Murray Abraham.

    Nom : music.png
Affichages : 2930
Taille : 145,9 Ko

    Une campagne organisée par un compositeur, qui a occupé plusieurs poste de direction dans des entreprises d'IA

    La campagne mondiale a été conçue et organisée par Ed Newton-Rex, un compositeur britannique aujourd'hui installé aux États-Unis, qui a occupé plusieurs postes de direction dans des entreprises spécialisées dans la technologie de l'IA et la musique.

    En 2010, Newton-Rex a fondé Jukedeck, une entreprise britannique spécialisée dans la génération de musique à partir de l'IA, qui fournissait de la musique pour la vidéo, la télévision, la radio, les podcasts et les jeux. Elle a été rachetée par ByteDance, la société mère de TikTok, en 2019.

    Après l'acquisition, Newton-Rex, qui est également compositeur de chorales, a dirigé le laboratoire européen d'IA de ByteDance avant de devenir responsable de l'audio au sein de l'entreprise technologique Stability AI. Il a quitté ce poste l'année dernière pour protester contre le fait que l'entreprise considérait qu'il était acceptable d'utiliser des œuvres protégées par des droits d'auteur sans licence, pour des raisons « d'utilisation équitable », un terme de la loi américaine sur les droits d'auteur qui signifie qu'il n'est pas nécessaire d'obtenir l'autorisation du détenteur des droits d'auteur.

    « Les entreprises IA ont besoin de trois ressources : les personnes, le calcul et les données. Elles dépensent des sommes considérables pour les premières et s'attendent à ce que la troisième soit gratuite »

    Ed Newton-Rex, a déclaré que les personnes qui vivent de leur travail créatif sont « très inquiètes » de la situation :

    « Les entreprises d'IA générative ont besoin de trois ressources clés pour construire des modèles d'IA : les personnes, le calcul et les données. Elles dépensent des sommes considérables pour les deux premières - parfois un million de dollars par ingénieur, et jusqu'à un milliard de dollars par modèle. Mais elles s'attendent à ce que le troisième - les données d'entraînement - soit gratuit », a-t-il déclaré.

    Newton-Rex a ajouté : « Lorsque les entreprises d'IA appellent cela des “données d'entraînement”, elles les déshumanisent. Ce dont nous parlons, c'est du travail des gens, de leur écriture, de leur art, de leur musique ».

    Aux États-Unis, John Grisham, Jodi Picoult et George RR Martin font partie d'un groupe d'auteurs qui poursuivent le développeur de ChatGPT, OpenAI, pour violation présumée des droits d'auteur, tandis que des artistes poursuivent également des entreprises technologiques à l'origine de générateurs d'images et que de grandes maisons de disques, dont Sony Music, Universal Music Group et Warner Music Group, poursuivent des créateurs de musique par IA, Suno et Udio.


    Une proposition d'opt-out pour le scraping de contenu est envisagée au Royaume-Uni, mais certains estiment qu'elle serait préjudiciable

    Au Royaume-Uni, le gouvernement va bientôt lancer une consultation sur la manière de réglementer la technologie de l'IA : le Financial Times a rapporté ce mois-ci que les ministres mèneraient des consultations sur un projet qui permettrait aux entreprises d'IA de récupérer le contenu des artistes et des titulaires de droit, à moins qu'ils ne choisissent explicitement de s'y soustraire.

    Newton-Rex a averti qu'une proposition d'opt-out pour le scraping de contenu serait très préjudiciable. Newton-Rex a déclaré que l'option de retrait était défectueuse, car la plupart des gens ne sont pas au courant de l'existence de tels systèmes :

    Citation Envoyé par Newton-Rex
    J'ai mis en place des systèmes d'opt-out pour des sociétés d'intelligence artificielle. Même les programmes d'opt-out les mieux gérés sont ignorés par la plupart des personnes qui ont la possibilité de s'y opposer. Vous n'en entendez jamais parler, vous manquez l'e-mail. Il est tout à fait injuste de faire peser la charge de l'exclusion de la formation à l'IA sur le créateur dont le travail fait l'objet de la formation. Si un gouvernement pensait vraiment que c'était une bonne chose pour les créateurs, il créerait un système d'opt-in.
    Les géants de la technologie Google et Microsoft demandent au gouvernement britannique d'assouplir les lois sur le droit d'auteur pour les entreprises d'intelligence artificielle et d'introduire une exception pour l'extraction de texte et de données d'œuvres protégées par le droit d'auteur, y compris la musique, à des fins commerciales. Un tel principe avait été évoqué par le précédent gouvernement conservateur en 2022, mais avait été abandonné un an plus tard à la suite de vives critiques de la part des musiciens et des créateurs.

    « Le droit d'auteur sert à sauvegarder la valeur de la créativité humaine, tout en créant de la valeur dans les industries musicales et créatives au sens large », a déclaré Sophie Jones, responsable de la stratégie de l'organisme britannique BPI, l'une des organisations soutenant Newton-Rex, dans un communiqué. « Si le Royaume-Uni veut rester une puissance créative mondiale dans un monde de plus en plus compétitif, le gouvernement doit veiller à ce que cette loi soit respectée et appliquée », a-t-elle poursuivi.

    Ce point de vue a été repris par l'Association of Independent Music (AIM), qui a également signé la déclaration.

    « Pour que l'IA profite à la créativité, nous exhortons les décideurs politiques à ne pas perdre de vue la nécessité d'une protection solide des droits d'auteur », a déclaré Gee Davy, PDG par intérim de l'AIM, dans un communiqué publié mardi 22 octobre. Elle a ajouté qu'il était « vital » que les décideurs politiques protègent les artistes et les détenteurs de droits « pour assurer un avenir sain à ceux qui créent, investissent et diffusent de la musique dans tous les genres et dans toutes les communautés, régions et nations du Royaume-Uni ».

    Nom : intelligence.png
Affichages : 552
Taille : 287,7 Ko

    Les entreprises d'IA générative et les détenteurs de droits sont en conflits sur plusieurs fronts

    La déclaration de mardi n'est que la dernière salve dans la bataille entre les entreprises d'IA générative et les détenteurs de droits. En mai, Sony Music a publié une déclaration avertissant plus de 700 entreprises d'IA de ne pas fouiller dans les données protégées par le droit d'auteur de l'entreprise, tandis que Warner Music a publié une déclaration similaire en juillet. Le même mois, un groupe bipartisan de sénateurs a présenté au Sénat américain un projet de loi intitulé No FAKES Act, qui vise à protéger les créateurs contre les « deepfakes » de l'IA.

    Selon Newton-Rex, le nombre de signataires de la déclaration et l'étendue des talents créatifs qu'ils représentent montrent clairement qu'un système de non-participation serait considéré comme « totalement injuste » par les créateurs.

    La déclaration est également signée par des organisations et des entreprises de l'industrie créative, dont l'American Federation of Musicians, le syndicat américain des acteurs SAG-AFTRA, le European Writers' Council et Universal Music Group.

    Un porte-parole du gouvernement britannique a déclaré que des réunions avaient été organisées avec des entreprises d'intelligence artificielle et des industries créatives au sujet des droits d'auteur, ajoutant qu'il s'agissait d'un domaine qui « nécessite un engagement réfléchi et, dans ce cadre, nous sommes déterminés à entendre un large éventail de points de vue afin d'éclairer notre approche ».

    Il est crucial de souligner l'importance de cette mobilisation

    Les artistes ne cherchent pas à freiner le progrès technologique, mais à garantir que leur travail soit respecté et protégé. La situation actuelle, où des œuvres sont utilisées sans consentement, menace non seulement les droits des artistes, mais aussi l'intégrité de l'art lui-même.

    Certains experts soutiennent que les entreprises d'IA bénéficient injustement du travail des créateurs sans offrir de contrepartie adéquate. Cela pourrait créer un précédent dangereux où la valeur du travail créatif est minimisée, conduisant à une érosion des droits d'auteur et à une dévaluation générale des œuvres artistiques.

    En revanche, les défenseurs de l'IA avancent que l'utilisation des œuvres pour entraîner des algorithmes peut mener à de nouvelles formes d'expression et à des innovations technologiques bénéfiques pour la société. Cependant, cette perspective ne doit pas occulter la nécessité de respecter les droits des créateurs originaux.

    Sources : lettre ouverte et signataires, Warner Music Group

    Et vous ?

    Partagez-vous le point de vue d'Ed Newton-Rex lorsqu'il estime que « Les entreprises IA ont besoin de trois ressources : les personnes, le calcul et les données. Elles dépensent des sommes considérables pour les premières et s'attendent à ce que la troisième soit gratuite » ? Dans quelle mesure ?
    Comment pensez-vous que les entreprises d'IA devraient obtenir l'autorisation d'utiliser des œuvres créatives protégées par des droits d'auteur ?
    Croyez-vous que les artistes devraient être indemnisés pour l'utilisation de leurs œuvres par les technologies d'IA ? Si oui, comment cette compensation devrait-elle être déterminée ?
    Selon vous, quelles mesures législatives devraient être mises en place pour protéger les droits des créateurs dans l'ère numérique ?
    Contribuez au club : Corrections, suggestions, critiques, ... : Contactez le service news et Rédigez des actualités

  15. #155
    Membre émérite
    Homme Profil pro
    Chargé de projets
    Inscrit en
    Décembre 2019
    Messages
    737
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Âge : 34
    Localisation : France, Hérault (Languedoc Roussillon)

    Informations professionnelles :
    Activité : Chargé de projets
    Secteur : High Tech - Éditeur de logiciels

    Informations forums :
    Inscription : Décembre 2019
    Messages : 737
    Points : 2 706
    Points
    2 706
    Par défaut
    La déclaration est également signée par des organisations et des entreprises de l'industrie créative, dont l'American Federation of Musicians, le syndicat américain des acteurs SAG-AFTRA, le European Writers' Council et Universal Music Group.
    Que des gestionnaires de PI qui exploitent eux même les artistes... Il y a quelques grand nom d'artiste dans la liste mais il faut déjà bien comprendre que c'est un système injuste pour 99% des artistes à la base. Comme la SACEM en France.

    C'est une nouvelle ère, le choc des patents trolls

Discussions similaires

  1. Réponses: 0
    Dernier message: 31/05/2022, 20h56
  2. Réponses: 3
    Dernier message: 31/12/2021, 10h14
  3. Réponses: 0
    Dernier message: 10/07/2019, 17h16
  4. Réponses: 2
    Dernier message: 29/11/2017, 11h52
  5. Réponses: 1
    Dernier message: 04/06/2015, 21h48

Partager

Partager
  • Envoyer la discussion sur Viadeo
  • Envoyer la discussion sur Twitter
  • Envoyer la discussion sur Google
  • Envoyer la discussion sur Facebook
  • Envoyer la discussion sur Digg
  • Envoyer la discussion sur Delicious
  • Envoyer la discussion sur MySpace
  • Envoyer la discussion sur Yahoo