IdentifiantMot de passe
Loading...
Mot de passe oublié ?Je m'inscris ! (gratuit)
Navigation

Inscrivez-vous gratuitement
pour pouvoir participer, suivre les réponses en temps réel, voter pour les messages, poser vos propres questions et recevoir la newsletter

Intelligence artificielle Discussion :

Un juge bloque la nouvelle loi californienne sur l'IA dans l'affaire du deepfake sur Kamala Harris


Sujet :

Intelligence artificielle

  1. #81
    Membre émérite
    Homme Profil pro
    Chargé de projets
    Inscrit en
    Décembre 2019
    Messages
    749
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Âge : 34
    Localisation : France, Hérault (Languedoc Roussillon)

    Informations professionnelles :
    Activité : Chargé de projets
    Secteur : High Tech - Éditeur de logiciels

    Informations forums :
    Inscription : Décembre 2019
    Messages : 749
    Points : 2 738
    Points
    2 738
    Par défaut
    C'est rigolo que le plus gros vautour de la finance mondiale dise qu'il a "peur".

    Je n'y crois pas une seule seconde.

    On parle d'un gestionnaire de fond qui a participé et participe encore à la ruine de certains états ayant fait faillite en rachetant leur dette et en réclamant son remboursement à l'aide d'une armée d'avocat. On appelle ça les fonds vautour dans le jargon.

    Un pays pauvre surendetté qui ne peut rembourser ses créanciers est déclaré en cessation de paiement. Le voici seul et vacillant face aux banques internationales pour négocier une réduction de sa dette. Les fonds rapaces rappliquent, rachètent les anciennes obligations à prix cassé. Puis des bataillons d'avocats engagent des procédures pour contraindre le pays pourtant ruiné et le peuple à l'agonie dans les bidonvilles à rembourser ces obligations à hauteur de 100% de leur valeur.

    En 2015, 26 fonds vautours menaient 277 procédures devant 48 juridictions différentes contre 32 pays débiteurs. Dans 77% des cas, ils gagnent. Ces procès rapportent entre 300 et 2000% d'intérêts. Les juridictions britanniques et américaines sont les plus prisées.

    «Les fonds vautours tuent», écrit Jean Ziegler. Exemple parmi tant d'autres: la famine qui s'est déclarée au Malawi en 2002. Le gouvernement n'a pas pu nourrir sa population car pour payer sa dette de plusieurs dizaines de millions de dollars à un vautour, il a dû vendre toutes ses réserves de maïs - 40.000 tonnes.
    Warren a aussi eu ce mot doux à notre encontre:
    Warren Buffett, riche parmi les plus riches: «La lutte des classes, ça existe, évidemment, mais cette guerre, c'est la classe des riches qui est en train de la gagner.»
    Je pense pas qu'il ait peur de l'IA. Il a su faire de l'argent sur la mort des autres, il va continuer. Et il doit déjà avoir plein d'idée avec l'IA pour faire du fric.

  2. #82
    Membre extrêmement actif
    Avatar de Ryu2000
    Homme Profil pro
    Étudiant
    Inscrit en
    Décembre 2008
    Messages
    9 862
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Âge : 36
    Localisation : France, Hérault (Languedoc Roussillon)

    Informations professionnelles :
    Activité : Étudiant

    Informations forums :
    Inscription : Décembre 2008
    Messages : 9 862
    Points : 18 805
    Points
    18 805
    Par défaut
    Citation Envoyé par Jade Emy Voir le message
    Quel est votre avis sur le sujet ?
    Si l'IA tient vraiment ses promesses du genre "une IA peut remplacer n'importe quelle équipe d'ingénieurs" alors oui, l'IA sera extrêmement dangereuse.
    Les humains n'auront plus de travail, donc ils vont s'appauvrir violemment.

    Ça m'étonnerait qu'il y ait 8 milliards d'humains qui vont consommer sans travailler.

  3. #83
    Membre habitué Avatar de Fluxgraveon
    Homme Profil pro
    mécanicien
    Inscrit en
    Mai 2024
    Messages
    112
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : France, Lot (Midi Pyrénées)

    Informations professionnelles :
    Activité : mécanicien

    Informations forums :
    Inscription : Mai 2024
    Messages : 112
    Points : 177
    Points
    177
    Par défaut Déclaration hybride
    Citation Envoyé par Ryu2000 Voir le message
    Si l'IA tient vraiment ses promesses du genre "une IA peut remplacer n'importe quelle équipe d'ingénieurs" alors oui, l'IA sera extrêmement dangereuse.
    Les humains n'auront plus de travail, donc ils vont s'appauvrir violemment.

    Ça m'étonnerait qu'il y ait 8 milliards d'humains qui vont consommer sans travailler.
    Les êtres humains sont-ils destinés à consommer ?
    L'I.A porte bien son nom, quoique je traduis cet acronyme par Intellection Algorithmique, c'est une création humaine, une externalisation de "sapience", réduite actuellement par ce que nous faisons de notre mental hypertrophié (un outil parmi d'autres), régi par le principe de Peter et ses boucles d'auto-limitation (l'auto-censure en constitue un aspect) et au sein duquel tout se réduit (ontologiquement) à une relation de dominance. Cela pourrait apparaître désespérant alors que cela résulte de la logique inversive de la raison (très actuelle n'est-ce pas ?) qui a une fonction essentielle, non pas de réduction, mais de condensation. La technologie (I.A), de part sa fonction d'origine (deep learning) devrait former prochainement un condensat mental au sein de l'espèce humaine (au sens de condensat Bose-Einstein) : le risque pour les humains est s'y noyer (comme Narcisse).
    Pour éviter cette noyade, nous devons rétablir le vaisseau de notre intuition, fruit de la sublimation de nos instincts : là est clairement la fonction essentielle des ingénieurs humains. Cette fonction, je la nomme fonction "nooceptrice" : Ces ingénieurs humains constituent des précepteurs -rices pour l'I.A.
    Une question d'usage, de ce que l'on fait d'un outil autonome dans un contexte planétaire critique.

  4. #84
    Membre extrêmement actif
    Avatar de Ryu2000
    Homme Profil pro
    Étudiant
    Inscrit en
    Décembre 2008
    Messages
    9 862
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Âge : 36
    Localisation : France, Hérault (Languedoc Roussillon)

    Informations professionnelles :
    Activité : Étudiant

    Informations forums :
    Inscription : Décembre 2008
    Messages : 9 862
    Points : 18 805
    Points
    18 805
    Par défaut
    Citation Envoyé par Fluxgraveon Voir le message
    Les êtres humains sont-ils destinés à consommer ?
    Dans un monde capitaliste, oui.
    Pour ne pas s'effondrer il faut de la croissance et la croissance vient principalement de la consommation.

    Après l'effondrement les choses seront peut-être différentes, mais en attendant il faut consommer, parce qu'on a des dettes à rembourser.

    Citation Envoyé par Fluxgraveon Voir le message
    La technologie (I.A), de part sa fonction d'origine (deep learning) devrait former prochainement un condensat mental au sein de l'espèce humaine (au sens de condensat Bose-Einstein) : le risque pour les humains est s'y noyer (comme Narcisse).
    On dirait que vous aimez compliquer les choses.
    Il doit y avoir moyen de dire la même chose plus simplement.

  5. #85
    Membre habitué Avatar de Fluxgraveon
    Homme Profil pro
    mécanicien
    Inscrit en
    Mai 2024
    Messages
    112
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : France, Lot (Midi Pyrénées)

    Informations professionnelles :
    Activité : mécanicien

    Informations forums :
    Inscription : Mai 2024
    Messages : 112
    Points : 177
    Points
    177
    Par défaut
    Vous parlez de cette croissance là : https://www.economie.gouv.fr/facileco/croissance ?

    On dirait que vous aimez compliquer les choses.
    Il doit y avoir moyen de dire la même chose plus simplement.
    Mmm, oui.

  6. #86
    Communiqués de presse

    Femme Profil pro
    Traductrice Technique
    Inscrit en
    Juin 2023
    Messages
    1 667
    Détails du profil
    Informations personnelles :
    Sexe : Femme
    Localisation : France

    Informations professionnelles :
    Activité : Traductrice Technique

    Informations forums :
    Inscription : Juin 2023
    Messages : 1 667
    Points : 116 580
    Points
    116 580
    Par défaut Eric Schmidt s'exprime sur l'IA : "elle est sous-estimée et les entreprises vont changer grâce à elle"
    L'ancien PDG de Google, Eric Schmidt, s'exprime sur l'IA : "elle est sous-estimée et les entreprises vont changer grâce à elle".

    Eric Schmidt s'exprime sur l'IA en déclarant qu'"elle est sous-estimée et que les entreprises vont changer grâce à elle."

    Eric Emerson Schmidt est un homme d'affaires américain et un ancien ingénieur logiciel qui a été PDG de Google de 2001 à 2011 et président exécutif de la société de 2011 à 2015. Il a également été président exécutif de la société mère Alphabet Inc.de 2015 à 2017, et conseiller technique chez Alphabet de 2017 à 2020. En avril 2022, l'indice Bloomberg Billionaires Index a estimé sa valeur nette à 25,1 milliards de dollars américains.

    Eric Schmidt, cofondateur de Schmidt Future, cofondateur du Special Competitive Studies Project et ancien président exécutif et PDG de Google, rejoint Squawk Box pour discuter de l'état de la course à l'armement en matière d'IA, du potentiel de la technologie de l'IA, de la désinformation en matière d'IA, du sort de TikTok, de la concurrence des États-Unis avec la Chine, et plus encore.

    Voici son avis sur l'état de l'IA actuel :

    Tout d'abord, je n'aime pas le dire, mais je pense que ce produit est sous-estimé. Pas surestimé, parce que l'arrivée d'une intelligence de forme non humaine est vraiment une grande affaire pour le monde. Elle arrive, elle est là, elle est sur le point d'arriver. Cela se fait par étapes. Si vous regardez... nous avions l'habitude de dire 20 ans, maintenant, c'est 5 ans.

    La raison en est que les lois de mise à l'échelle de ces systèmes continuent d'augmenter sans perte ni dégradation de puissance. Ce qui s'est passé, c'est qu'OpenAI a inventé cette catégorie, avec son partenariat avec Microsoft, qui va dépenser 30 à 100 milliards de dollars pour cela. Google l'a inventé et est arrivé tardivement, mais il est maintenant présent. Je suppose que les chiffres sont similaires.

    Il y a d'autres entrants qui sont incroyablement intéressants. Par exemple, Meta vient de publier un modèle à 400 milliards de dollars appelé Llama 3 en open source, qui serait aussi proche de GPT-4, qui date d'il y a un an et demi. L'industrie des logiciels open source suit celle des logiciels fermés. Le grand gagnant à l'heure actuelle reste Nvidia et la raison en est qu'ils ont un quasi-monopole sur la pile logicielle entre le matériel et le logiciel que tout le monde utilise.

    Et vous ?

    Pensez-vous que son avis est crédible ou pertinent ?
    Quel est votre avis sur le sujet ?

    Voir aussi :

    Eric Schmidt estime qu'on devrait développer l'IA aussi rapidement que possible, car son potentiel est très important, par exemple un médecin IA ou un tuteur IA

    Warren Buffett déclare que "l'IA est un génie qui me fait peur", et considère l'IA comme une bombe atomique des temps modernes. L'IA "a un énorme potentiel pour le bien, et un énorme potentiel pour le mal"

    Sam Altman estime que GPT continuera à s'améliorer pendant au moins les trois ou quatre prochaines générations de modèles. "Nous sommes très loin du moment où nous commencerons à nous stabiliser"

  7. #87
    Membre extrêmement actif
    Avatar de Ryu2000
    Homme Profil pro
    Étudiant
    Inscrit en
    Décembre 2008
    Messages
    9 862
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Âge : 36
    Localisation : France, Hérault (Languedoc Roussillon)

    Informations professionnelles :
    Activité : Étudiant

    Informations forums :
    Inscription : Décembre 2008
    Messages : 9 862
    Points : 18 805
    Points
    18 805
    Par défaut
    Citation Envoyé par Jade Emy Voir le message
    Elle arrive, elle est là, elle est sur le point d'arriver. Cela se fait par étapes. Si vous regardez... nous avions l'habitude de dire 20 ans, maintenant, c'est 5 ans.
    Peut-être qu'il est un peu trop optimiste et qu'en 2029 il tiendra toujours le même discours "dans 5 ans elle sera là".

  8. #88
    Communiqués de presse

    Femme Profil pro
    Traductrice Technique
    Inscrit en
    Juin 2023
    Messages
    1 667
    Détails du profil
    Informations personnelles :
    Sexe : Femme
    Localisation : France

    Informations professionnelles :
    Activité : Traductrice Technique

    Informations forums :
    Inscription : Juin 2023
    Messages : 1 667
    Points : 116 580
    Points
    116 580
    Par défaut Sam Altman se demande si nos compagnons d'IA personnalisés du futur pourraient témoigner contre nous
    Sam Altman se demande si nos compagnons d'IA personnalisés du futur pourraient être cités pour témoigner contre nous au tribunal, "imaginez une IA qui accès à un enregistrement complet de votre vie"

    Sam Altman se demande si nos compagnons d'IA personnalisés du futur pourraient être cités à comparaître pour témoigner contre nous au tribunal.

    Sam Altman, de son vrai nom "Samuel Harris Altman", est un entrepreneur et investisseur américain surtout connu comme PDG d'OpenAI depuis 2019 (il a été brièvement licencié et réintégré en novembre 2023). Il est considéré comme l'une des figures de proue du boom de l'IA

    Voici une de ces déclarations :

    Je peux imaginer un avenir dans lequel, si vous le souhaitez, vous disposez d'une IA personnalisée qui a lu tous les courriels, tous les textes, tous les messages que vous avez envoyés ou reçus, qui a accès à un enregistrement complet de votre vie, qui connaît tous les documents que vous avez consultés, toutes les émissions de télévision que vous avez lues, tout ce que vous avez lu, entendu ou vu, toutes vos entrées et sorties. Vous pouvez imaginer qu'il serait très utile d'en disposer.

    Vous pouvez également imaginer les problèmes de protection de la vie privée que cela représenterait. Je pense que nous devrions nous en tenir à ce cadre et que nous ne disons pas "l'IA devrait-elle être capable de s'entraîner sur telle ou telle donnée". Mais comment allons-nous naviguer entre la vie privée, l'utilité et les compromis de sécurité qui en découlent ? Et qu'est-ce que cela signifie ? Avons-nous besoin d'une nouvelle définition des informations confidentielles pour que votre compagnon IA n'ait jamais à témoigner contre vous ou ne puisse pas être cité à comparaître par un tribunal ?

    Je ne sais même pas quels seront les problèmes.
    Et vous ?

    Pensez-vous qu'il est crédible ou pertinent ?
    Quel est votre avis sur le sujet ?

    Voir aussi :

    Sam Altman : « je me fiche de savoir si nous dépensons 50 milliards de dollars par an, nous construisons l'AGI et cela en vaudra la peine », ce montant dépasse largement le PIB de certains pays

    Enjeux et avantages de l'IA générale : Sam Altman, PDG d'OpenAI, appel au changement de gouvernance, pour éviter la concentration du contrôle

    Nous avons désormais plus de détails sur ce qui s'est passé à OpenAI et qui a conduit au licenciement de Sam Altman. Ce dernier a été accusé de monter les membres du conseil les uns contre les autres

  9. #89
    Futur Membre du Club
    Homme Profil pro
    Chargé d'affaire
    Inscrit en
    Novembre 2014
    Messages
    3
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Âge : 34
    Localisation : France, Isère (Rhône Alpes)

    Informations professionnelles :
    Activité : Chargé d'affaire
    Secteur : Finance

    Informations forums :
    Inscription : Novembre 2014
    Messages : 3
    Points : 8
    Points
    8
    Par défaut
    Discours marketeux à vomir.

  10. #90
    Expert confirmé
    Homme Profil pro
    ingénieur qualité
    Inscrit en
    Mars 2015
    Messages
    1 365
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : Belgique

    Informations professionnelles :
    Activité : ingénieur qualité
    Secteur : Aéronautique - Marine - Espace - Armement

    Informations forums :
    Inscription : Mars 2015
    Messages : 1 365
    Points : 4 130
    Points
    4 130
    Par défaut
    Vous pouvez imaginer qu'il serait très utile d'en disposer
    Ou très préjudiciable.
    "M. Totozor nous voyons que vous vous êtes particulièrement renseigné sur le situation Israëlo-palestinienne avec une grande tendance à vers la défense de la Palestine. Vous avez lu ces articles [liste des articles et date de lecture] et regardé ces vidéos
    [liste des vidéos et date de visionnage].
    M. Totozor nous voyons que vous vous êtes particulièrement renseigné sur le black bloc. Vous avez lu ces articles [liste des articles et date de lecture] et regardé ces vidéos [liste des vidéos et date de visionnage].
    Ce qui fait de vous à la fois un antisémite et un violent anarchiste.
    Vous avez récemment fait l'acquisition d'un chien de catégorie 3 mais dont la race a néanmoins une réputation d'excellents chiens de garde et d'attaque.
    Avec ce faisceau de preuve je veux mettre l'accent sur la radicalisation évidente de cette personne et sur la preuve évidente de la glissade de cette personne d'un bobo radicool vers un dangereux terroriste".

  11. #91
    Membre confirmé
    Homme Profil pro
    autre
    Inscrit en
    Juin 2014
    Messages
    167
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : France, Aveyron (Midi Pyrénées)

    Informations professionnelles :
    Activité : autre

    Informations forums :
    Inscription : Juin 2014
    Messages : 167
    Points : 592
    Points
    592
    Par défaut
    Il ne parle pas d'IA, il parle d'une perte totale de vie privée due à la numérisation systématique de notre vie.

    Il ajoute le mot IA dans la phrase parce qu'il faut qu'il en vende mais le problème n'a rien à voir avec l'IA.

  12. #92
    Chroniqueur Actualités

    Homme Profil pro
    Administrateur de base de données
    Inscrit en
    Mars 2013
    Messages
    9 002
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : Canada

    Informations professionnelles :
    Activité : Administrateur de base de données

    Informations forums :
    Inscription : Mars 2013
    Messages : 9 002
    Points : 208 181
    Points
    208 181
    Par défaut Des voix s’élèvent pour une pause dans le développement de l’IA
    Des voix s’élèvent pour une pause dans le développement de l’IA : les manifestants de Pause AI exigent une régulation des gouvernements,
    un appel à la prudence face à l’innovation technologique et les divergences sur les solutions

    C'est dans un monde où l’intelligence artificielle progresse à pas de géant qu'une vague de protestations a émergé, appelant à une pause dans le développement de l’IA. Une semaine avant le deuxième sommet mondial sur l’IA, le mouvement “Pause AI” a exigé que les gouvernements régulent les entreprises d’IA et gèlent le développement de nouveaux modèles d’intelligence artificielle de pointe.

    Quelques jours avant le deuxième sommet mondial sur l'intelligence artificielle, les manifestants d'un petit mouvement en pleine expansion appelé « Pause AI » ont demandé aux gouvernements du monde entier de réglementer les entreprises d'intelligence artificielle et de geler le développement de nouveaux modèles d'intelligence artificielle à la pointe de la technologie. Selon eux, le développement de ces modèles ne devrait être autorisé que si les entreprises acceptent de les soumettre à une évaluation approfondie afin de tester d'abord leur sécurité. Des manifestations ont eu lieu lundi dans treize pays différents, dont les États-Unis, le Royaume-Uni, le Brésil, l'Allemagne, l'Australie et la Norvège.

    Leur objectif est d'attirer l'attention des électeurs et des politiciens avant le sommet de Séoul sur l'IA, qui fait suite au sommet sur la sécurité de l'IA qui s'est tenu au Royaume-Uni en novembre 2023. Mais le groupe de manifestants, peu organisé, n'a pas encore trouvé le meilleur moyen de faire passer son message.

    « Le sommet n'a pas débouché sur des réglementations significatives », explique Joep Meindertsma, fondateur de PauseAI. Les participants à la conférence se sont mis d'accord sur la « Déclaration de Bletchley », mais cet accord ne signifie pas grand-chose, selon Meindertsma. « Ce n'est qu'un premier pas, et ce dont nous avons besoin, c'est de traités internationaux contraignants ».

    Pour mémoire, à travers la déclaration de Bletchley, les signataires s'engagent en faveur d'une coopération internationale inclusive pour répondre aux préoccupations en matière de sécurité de l'IA, en proposant des mesures telles que des normes éthiques, la transparence, des tests de sécurité et l'éducation du public. En outre, elle soutient la création d'un réseau international de recherche axé sur la sécurité de l'IA d'avant-garde. La déclaration de Bletchley repose sur cinq points fondamentaux, à savoir :
    • insister sur la nécessité d'une IA sûre et responsable : la déclaration de Bletchley souligne l'importance de développer une IA sûre, centrée sur l'être humain, digne de confiance et responsable, en mettant l'accent sur la protection des droits de l'homme et en veillant à ce qu'elle soit largement bénéfique ;
    • reconnaître les opportunités et les risques : la déclaration de Bletchley reconnaît le vaste potentiel de l'IA et les risques qui y sont associés, en particulier dans le cas de l'IA exploratoire, qui possède des capacités puissantes et potentiellement dangereuses qui restent mal comprises et imprévisibles ;
    • s'engager en faveur d'une coopération inclusive : la déclaration de Bletchley s'engage à collaborer entre les nations et les parties prenantes, en plaidant pour une coopération inclusive afin d'aborder les risques de sécurité liés à l'IA. Cette collaboration se fera par l'intermédiaire des plateformes internationales existantes et d'autres initiatives pertinentes ;
    • proposer des mesures pour la sécurité de l'IA : la déclaration de Bletchley propose diverses mesures pour garantir la sécurité de l'IA, notamment l'établissement de normes éthiques, la transparence et la responsabilité, des procédures rigoureuses de test et d'évaluation de la sécurité, ainsi que la sensibilisation du public et la promotion de l'éducation sur les questions liées à l'IA ;
    • soutenir la recherche internationale : la déclaration de Bletchley soutient la création d'un réseau international de recherche scientifique axé sur la sécurité de l'IA. Cette recherche fournira des informations précieuses pour l'élaboration des politiques et le bien public, tout en contribuant à des dialogues internationaux plus larges sur l'IA.


    « Arrêtez la course, ce n'est pas sûr ». Des manifestants tentent d'inciter les décideurs politiques à règlementer l'IA

    À Londres, une vingtaine de manifestants se sont postés devant le ministère britannique de la science, de l'innovation et de la technologie, scandant des slogans tels que « arrêtez la course, ce n'est pas sûr » et « l'avenir de qui ? notre avenir », dans l'espoir d'attirer l'attention des décideurs politiques. Les manifestants affirment que leur objectif est d'inciter les gouvernements à réglementer les entreprises qui développent des modèles d'IA d'avant-garde, notamment le Chat GPT d'OpenAI. Ils affirment que les entreprises ne prennent pas suffisamment de précautions pour s'assurer que leurs modèles d'IA sont suffisamment sûrs pour être diffusés dans le monde.

    « Les entreprises d'IA ont prouvé à maintes reprises que l'on ne pouvait pas leur faire confiance, à travers la manière dont elles traitent leurs employés et le travail des autres, en le volant littéralement et en le jetant dans leurs modèles », a déclaré Gideon Futerman, un étudiant d'Oxford qui a prononcé un discours lors de la manifestation.

    L'une des manifestantes, Tara Steele, rédactrice indépendante qui travaille sur des blogs et des contenus de référencement, a déclaré qu'elle avait constaté l'impact de la technologie sur ses propres moyens de subsistance. « J'ai remarqué que depuis l'apparition de ChatGPT, la demande de travail en freelance a considérablement diminué », explique-t-elle. « Personnellement, j'adore écrire... J'ai vraiment adoré ça. Et c'est un peu triste, émotionnellement ».

    Elle explique que sa principale raison de protester est qu'elle craint que les modèles d'intelligence artificielle d'avant-garde n'aient des conséquences encore plus dangereuses à l'avenir. « Nous avons une foule d'experts hautement qualifiés, des lauréats du prix Turing, des chercheurs en intelligence artificielle très cités et les PDG des entreprises d'intelligence artificielle eux-mêmes [qui affirment que l'intelligence artificielle pourrait être extrêmement dangereuse] ».

    Elle est particulièrement préoccupée par le nombre croissant d'experts qui mettent en garde contre les conséquences catastrophiques d'une IA mal maîtrisée. Un rapport commandé par le gouvernement américain, publié en mars, met en garde contre « l'essor de l'IA avancée et de l'IAG [intelligence artificielle générale], qui pourrait déstabiliser la sécurité mondiale d'une manière qui rappelle l'introduction des armes nucléaires ». Actuellement, les plus grands laboratoires d'IA tentent de construire des systèmes capables de surpasser les humains dans presque toutes les tâches, y compris la planification à long terme et la pensée critique. S'ils y parviennent, de plus en plus d'aspects de l'activité humaine pourraient être automatisés, qu'il s'agisse de choses banales comme les achats en ligne ou de l'introduction de systèmes d'armes autonomes qui pourraient agir d'une manière que nous ne pouvons pas prédire. Cela pourrait conduire à une « course aux armements » qui augmenterait la probabilité « d'accidents mortels à l'échelle mondiale et à l'échelle des ADM [armes de destruction massive], de conflits interétatiques et d'escalade », selon le rapport.


    Les experts sont divisés quant aux impacts potentiels

    Les experts ne comprennent toujours pas le fonctionnement interne des systèmes d'IA comme ChatGPT, et ils craignent que, dans des systèmes plus sophistiqués, notre manque de connaissances ne nous conduise à faire des erreurs de calcul considérables sur la façon dont des systèmes plus puissants agiraient. Selon le degré d'intégration des systèmes d'IA dans la vie humaine, ceux-ci pourraient causer des ravages et prendre le contrôle de systèmes d'armement dangereux, ce qui amène de nombreux experts à s'inquiéter de la possibilité d'une extinction de l'humanité. « Ces avertissements ne parviennent pas au grand public, qui a besoin de savoir », estime Tara Steele.

    À l'heure actuelle, les experts en apprentissage automatique sont quelque peu divisés sur le risque exact que représente la poursuite du développement de la technologie de l'intelligence artificielle. Deux des trois parrains de l'apprentissage profond, un type d'apprentissage automatique qui permet aux systèmes d'IA de mieux simuler le processus de prise de décision du cerveau humain, Geoffrey Hinton et Yoshua Bengio, ont déclaré publiquement qu'ils pensaient que la technologie risquait de conduire à l'extinction de l'humanité.

    Le troisième parrain, Yann LeCun, qui est également responsable scientifique de l'IA chez Meta, n'est pas du tout d'accord avec les deux autres. Il a déclaré à Wired en décembre que « l'IA apportera de nombreux avantages au monde. Mais les gens exploitent les craintes suscitées par cette technologie, et nous risquons d'effrayer les gens qui s'en détournent.

    Anthony Bailey, un autre manifestant de Pause AI, a déclaré que, bien qu'il comprenne que les nouveaux systèmes d'IA puissent apporter des avantages, il craint que les entreprises technologiques ne soient incitées à construire des technologies dont les humains pourraient facilement perdre le contrôle, parce que ces technologies ont également un immense potentiel de profit. « C'est ce qui a une valeur économique. Si les gens ne sont pas dissuadés de penser que c'est dangereux, ce sont ces types de modules qui seront naturellement construits.

    Nom : pause.png
Affichages : 4304
Taille : 608,2 Ko

    Les dilemmes associés au déploiement de l’IA

    L’intelligence artificielle est à la croisée des chemins, confrontée à des dilemmes éthiques et sociaux qui remettent en question les fondements mêmes de son développement. Les récentes protestations contre l’IA soulignent une inquiétude croissante quant à la direction que prend cette technologie. Mais au-delà des slogans et des manifestations, il est crucial de s’interroger sur les implications profondes de l’IA pour notre société.

    Premièrement, l’IA pose la question de la transparence. Les algorithmes complexes et souvent opaques peuvent prendre des décisions qui affectent des vies humaines, sans que nous puissions facilement comprendre ou contester ces décisions. De plus, la responsabilité est diluée dans les méandres de ces systèmes, rendant difficile la désignation de coupables en cas d’erreurs ou de préjudices.

    Deuxièmement, l’IA remet en cause notre conception du travail. Avec l’automatisation croissante, de nombreux emplois sont menacés, et les travailleurs doivent s’adapter rapidement à un marché en constante évolution. Cela soulève des questions sur la sécurité de l’emploi et la précarité qui peuvent en découler.

    Nom : ia.png
Affichages : 840
Taille : 674,5 Ko

    Troisièmement, l’IA interroge notre rapport à la vie privée. La collecte massive de données personnelles, nécessaire au fonctionnement de nombreux systèmes d’IA, pose un risque pour la confidentialité et l’autonomie individuelle. Les citoyens sont de plus en plus conscients de ce risque, mais les solutions pour le contrer restent floues.

    Enfin, l’IA défie notre éthique. Les systèmes d’IA sont conçus par des humains, avec leurs biais et leurs préjugés. Si ces biais sont intégrés dans l’IA, ils peuvent se propager à grande échelle et renforcer les inégalités existantes.

    Ces dilemmes ne sont pas insurmontables, mais ils exigent une réflexion collective et des actions concertées. Les protestations actuelles sont un symptôme d’une société qui cherche à reprendre le contrôle sur une technologie qui semble lui échapper. Il est temps de poser les bonnes questions et de trouver des réponses qui respectent à la fois le potentiel de l’IA et les valeurs humaines fondamentales.

    Sources : rapport de Gladstone AI pour le ministère américain de la défense, Pause AI, déclaration de Bletchley

    Et vous ?

    Quelles sont les principales préoccupations que vous avez concernant le développement rapide de l’intelligence artificielle ?
    Comment les gouvernements devraient-ils réguler l’IA pour équilibrer l’innovation et la sécurité publique ?
    Quel rôle le public doit-il jouer dans la décision des limites de l’IA ?
    Les avantages de l’IA l’emportent-ils sur les risques potentiels pour l’emploi et la vie privée ?
    Devrions-nous craindre une ‘course à l’IA’ entre les entreprises et les nations, et si oui, comment pouvons-nous la prévenir ?
    Quelles mesures de sécurité spécifiques les entreprises d’IA devraient-elles mettre en place avant de lancer de nouveaux produits ?
    Comment l’IA a-t-elle affecté votre vie professionnelle ou personnelle, et quelles sont vos attentes pour l’avenir ?
    Quelles sont les responsabilités éthiques des développeurs d’IA, et comment peuvent-ils s’assurer qu’ils les respectent ?

    Voir aussi :

    Craignant l'extinction de l'humanité, un groupe de protestation milite pour l'arrêt du développement de l'IA jusqu'à ce que des mesures de sécurité adéquates soient établies

  13. #93
    Chroniqueur Actualités

    Homme Profil pro
    Administrateur de base de données
    Inscrit en
    Mars 2013
    Messages
    9 002
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : Canada

    Informations professionnelles :
    Activité : Administrateur de base de données

    Informations forums :
    Inscription : Mars 2013
    Messages : 9 002
    Points : 208 181
    Points
    208 181
    Par défaut OpenAI, xAI, Google, Meta, Microsoft et d'autres entreprises d'IA s'engagent sur la sécurité
    OpenAI, xAI, Google, Meta et d'autres entreprises d'IA s'engagent sur la sécurité, promettant de ne pas déployer d'IA si les risques graves ne peuvent pas être pris en compte et atténués.
    Vers un avenir responsable ?

    Récemment, un événement marquant a eu lieu, réunissant les géants de l’IA autour d’un engagement commun pour la sécurité. Des entreprises telles qu’Amazon, Google, Meta, Microsoft, IBM, Mistral AI, OpenAI dirigée par Sam Altman, xAI d’Elon Musk et le développeur chinois Zhipu AI, ont signé un pacte de sécurité, promettant de ne pas déployer des modèles "Frontier AI” si les risques sévères ne peuvent être atténués. Au total 16 entreprises ont signé ce pacte.

    « Frontier AI » (que l'on pourrait traduire par « IA avant-gardiste ») est un terme générique utilisé pour décrire les modèles d'IA qui égalent ou surpassent les modèles d'IA de pointe existants, que ce soit en termes de capacités ou de variété de tâches. À l'heure actuelle, « l'IA d'avant-garde » désigne les modèles fondamentaux ou l'IA à usage général (GPAI). Contrairement aux systèmes d'IA restreints, ces systèmes peuvent effectuer un large éventail de tâches, y compris le traitement du langage et des images. Ils fonctionnent souvent comme une sorte de plateforme, que d'autres développeurs peuvent utiliser pour créer des applications. Ainsi, les modèles d'IA les plus avancés sont classés dans la catégorie de l'IA frontière.

    Le terme « frontière » ne décrit pas une propriété d'un modèle d'IA ; il met l'accent sur la façon dont il se compare à l'IA existante. Les modèles d'avant-garde d'aujourd'hui peuvent cesser d'être considérés comme tels lorsqu'ils sont surpassés par d'autres modèles d'IA. Par exemple, la nouvelle version du célèbre modèle de langage multimodal GPT-4 de l'OpenAI est plus rapide et plus précise que son prédécesseur, créant ainsi une nouvelle frontière pour l'IA.

    En raison de leurs capacités techniques et de calcul sans précédent, et de la grande variété de tâches qu'elles peuvent accomplir, les IA d'avant-garde engendrent également de l'incertitude. Une partie de cette incertitude réside dans leur capacité à nuire à la vie et au bien-être des personnes, ou à l'environnement.

    Plusieurs entreprises signent une nouvelle série d'engagements volontaires sur la sécurité de l'IA

    Les gouvernements britannique et sud-coréen ont annoncé que les principales entreprises d'intelligence artificielle avaient signé une nouvelle série d'engagements volontaires sur la sécurité de l'IA. Ces entreprises, parmi lesquelles figurent les géants de la technologie que sont Amazon, Google, Meta et Microsoft, ainsi que OpenAI, dirigée par Sam Altman, xAI, d'Elon Musk, et le développeur chinois Zhipu AI, publieront des cadres décrivant la manière dont elles mesureront les risques de leurs modèles d'intelligence artificielle « pionniers ».

    Les groupes se sont engagés à « ne pas développer ou déployer un modèle du tout » si des risques graves ne peuvent être atténués, ont déclaré les deux gouvernements avant l'ouverture d'un sommet mondial sur l'IA à Séoul mardi.

    Cette annonce s'inscrit dans le prolongement de la déclaration dite de Bletchley, faite lors du premier sommet sur la sécurité de l'IA organisé par le Premier ministre britannique, Rishi Sunak, en novembre.

    Pour mémoire, à travers la déclaration de Bletchley, les signataires s'engagent en faveur d'une coopération internationale inclusive pour répondre aux préoccupations en matière de sécurité de l'IA, en proposant des mesures telles que des normes éthiques, la transparence, des tests de sécurité et l'éducation du public. En outre, elle soutient la création d'un réseau international de recherche axé sur la sécurité de l'IA d'avant-garde. La déclaration de Bletchley repose sur cinq points fondamentaux, à savoir :
    • insister sur la nécessité d'une IA sûre et responsable : la déclaration de Bletchley souligne l'importance de développer une IA sûre, centrée sur l'être humain, digne de confiance et responsable, en mettant l'accent sur la protection des droits de l'homme et en veillant à ce qu'elle soit largement bénéfique ;
    • reconnaître les opportunités et les risques : la déclaration de Bletchley reconnaît le vaste potentiel de l'IA et les risques qui y sont associés, en particulier dans le cas de l'IA exploratoire, qui possède des capacités puissantes et potentiellement dangereuses qui restent mal comprises et imprévisibles ;
    • s'engager en faveur d'une coopération inclusive : la déclaration de Bletchley s'engage à collaborer entre les nations et les parties prenantes, en plaidant pour une coopération inclusive afin d'aborder les risques de sécurité liés à l'IA. Cette collaboration se fera par l'intermédiaire des plateformes internationales existantes et d'autres initiatives pertinentes ;
    • proposer des mesures pour la sécurité de l'IA : la déclaration de Bletchley propose diverses mesures pour garantir la sécurité de l'IA, notamment l'établissement de normes éthiques, la transparence et la responsabilité, des procédures rigoureuses de test et d'évaluation de la sécurité, ainsi que la sensibilisation du public et la promotion de l'éducation sur les questions liées à l'IA ;
    • soutenir la recherche internationale : la déclaration de Bletchley soutient la création d'un réseau international de recherche scientifique axé sur la sécurité de l'IA. Cette recherche fournira des informations précieuses pour l'élaboration des politiques et le bien public, tout en contribuant à des dialogues internationaux plus larges sur l'IA.

    « Ces engagements garantissent que les principales entreprises d'IA du monde feront preuve de transparence et de responsabilité quant à leurs projets de développement d'une IA sûre », a déclaré Sunak dans un communiqué. « Ils créent un précédent en matière de normes mondiales de sécurité de l'IA, qui permettra de tirer parti de cette technologie transformatrice ».

    Nom : rishi.png
Affichages : 5002
Taille : 149,4 Ko

    Selon un communiqué décrivant l'accord, les entreprises d'IA « évalueront les risques posés par leurs modèles ou systèmes d'avant-garde... y compris avant de déployer ce modèle ou ce système et, le cas échéant, avant et pendant la formation ». Les entreprises définiront également les « seuils à partir desquels les risques graves posés par un modèle ou un système, s'ils ne sont pas atténués de manière adéquate, seraient jugés intolérables » et la manière dont ces mesures d'atténuation seront mises en œuvre.

    « Le domaine de la sécurité de l'IA évolue rapidement et nous sommes particulièrement heureux d'approuver l'accent mis par les engagements sur l'affinement des approches parallèlement à la science », a déclaré Anna Makanju, vice-présidente des affaires mondiales chez OpenAI. « Nous restons déterminés à collaborer avec d'autres laboratoires de recherche, des entreprises et des gouvernements pour faire en sorte que l'IA soit sûre et profite à l'ensemble de l'humanité. »


    Une annonce qui fait écho aux « engagements volontaires » pris à la Maison Blanche en juillet

    L'annonce de mardi fait écho aux « engagements volontaires » pris à la Maison Blanche en juillet de l'année dernière par Amazon, Anthropic, Google, Inflection AI, Meta, Microsoft et OpenAI « pour aider à progresser vers un développement sûr, sécurisé et transparent de la technologie de l'IA ». Toutefois, la manière dont les entreprises pourraient être tenues de rendre des comptes si elles ne respectent pas leurs engagements n'est pas claire.

    Le communiqué de mardi indique que les 16 entreprises « assureront la transparence publique » de la mise en œuvre de leurs engagements, « sauf dans la mesure où cela augmenterait les risques ou divulguerait des informations commerciales sensibles dans une mesure disproportionnée par rapport aux avantages pour la société ».

    S'exprimant à Séoul avant une réunion virtuelle des dirigeants mardi soir, la ministre britannique des sciences, Michelle Donelan, a déclaré au Financial Times que les accords volontaires conclus à Bletchley avaient porté leurs fruits. « C'est pourquoi nous pensons que ces accords continueront à porter leurs fruits », a déclaré Donelan.

    « Mais il ne s'agit pas seulement de savoir ce que les entreprises peuvent faire de plus, il s'agit aussi de savoir ce que les pays peuvent faire de plus », a-t-elle ajouté. Donelan a confirmé que le gouvernement chinois serait représenté lors des réunions organisées le deuxième jour du sommet, mercredi. Dan Hendrycks, conseiller en sécurité auprès de xAI, a déclaré que les engagements volontaires contribueraient à « poser les bases d'une réglementation nationale concrète ».

    Mais Donelan a réaffirmé la position du Royaume-Uni selon laquelle il était trop tôt pour envisager une législation visant à renforcer la sécurité de l'IA. « Nous devons mieux maîtriser les risques », a-t-elle déclaré, précisant que le gouvernement britannique offrirait jusqu'à 8,5 millions de livres sterling de subventions pour étudier les risques liés à l'IA, tels que les “deepfakes” et les cyberattaques. Elle a ajouté que si le gouvernement britannique avait initié une législation sur la question l'année dernière, « au moment où elle sortirait, elle serait probablement dépassée ».


    Conclusion

    Alors que l’industrie de l’IA se concentre de plus en plus sur les préoccupations les plus pressantes, telles que la désinformation, la sécurité des données, les biais et le maintien de l’humain dans la boucle, cet accord représente un pas en avant significatif pour garantir que l’IA soit sûre et bénéfique pour toute l’humanité1.

    Ce pacte de sécurité signé par les grandes entreprises d’IA est un jalon crucial dans la quête d’un développement responsable et éthique de l’IA. Il reflète une prise de conscience collective de l’importance de la sécurité dans l’avancement de cette technologie transformatrice et pose les bases d’une collaboration internationale pour un avenir où l’IA est à la fois puissante et sûre.

    Source : AI Seoul Summit

    Et vous ?

    Quelles mesures concrètes les entreprises d’IA devraient-elles prendre pour garantir la sécurité et l’éthique de leurs technologies ?
    Comment les consommateurs peuvent-ils s’assurer que les entreprises respectent leurs engagements en matière de sécurité de l’IA ?
    Quel rôle les gouvernements devraient-ils jouer dans la régulation de l’IA pour protéger les intérêts publics ?
    La transparence est-elle suffisante pour gagner la confiance du public envers l’IA, ou faut-il des mesures supplémentaires ?
    Comment pouvons-nous équilibrer l’innovation rapide dans le domaine de l’IA avec la nécessité de prévenir les risques potentiels ?
    Les pactes de sécurité comme celui-ci sont-ils suffisants pour prévenir les abus de l’IA, ou avons-nous besoin d’une législation internationale ?
    Quelles sont les implications éthiques de l’utilisation de l’IA dans des domaines sensibles tels que la surveillance et la prise de décision judiciaire ?
    En quoi la collaboration entre les grandes entreprises d’IA peut-elle contribuer à un développement plus sûr de l’IA ?
    Devrions-nous craindre une course aux armements en IA, et si oui, comment la prévenir ?
    Quelles sont les conséquences potentielles si une entreprise ne respecte pas le pacte de sécurité de l’IA ?

  14. #94
    Membre émérite
    Homme Profil pro
    Chargé de projets
    Inscrit en
    Décembre 2019
    Messages
    749
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Âge : 34
    Localisation : France, Hérault (Languedoc Roussillon)

    Informations professionnelles :
    Activité : Chargé de projets
    Secteur : High Tech - Éditeur de logiciels

    Informations forums :
    Inscription : Décembre 2019
    Messages : 749
    Points : 2 738
    Points
    2 738
    Par défaut
    Ils promettent de ne pas faire des choses qui sont déjà faîtes...

  15. #95
    Chroniqueur Actualités
    Avatar de Anthony
    Homme Profil pro
    Rédacteur technique
    Inscrit en
    Novembre 2022
    Messages
    1 273
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : France, Gironde (Aquitaine)

    Informations professionnelles :
    Activité : Rédacteur technique

    Informations forums :
    Inscription : Novembre 2022
    Messages : 1 273
    Points : 20 949
    Points
    20 949
    Par défaut Eric Schmidt affirme que les systèmes d'IA les plus puissants devront être confinés dans des bases militaires
    L'ancien PDG de Google, Eric Schmidt, affirme que les systèmes d'IA les plus puissants du futur devront être confinés dans des bases militaires, tant leurs capacités seront dangereuses

    Dans une interview récente, Eric Schmidt, ancien PDG de Google, a souligné les dangers potentiels des futurs systèmes d'IA les plus puissants. Il a estimé que, à l'instar des niveaux de biosécurité en biologie, ces systèmes d'IA pourraient devoir être confinés dans des bases militaires et fortement surveillés en raison de leurs immenses capacités et des risques qu'ils posent s'ils sont utilisés à mauvais escient.

    Eric Emerson Schmidt est un homme d'affaires américain et un ancien ingénieur logiciel qui a été PDG de Google de 2001 à 2011 et président exécutif de la société de 2011 à 2015. Il a également été président exécutif de la société mère Alphabet Inc. de 2015 à 2017 et conseiller technique d'Alphabet de 2017 à 2020. En avril 2022, le Bloomberg Billionaires Index a estimé sa valeur nette à 25,1 milliards de dollars américains.




    Citation Envoyé par Eric Schmidt
    Si vous réalisez une formation puissante [de l'IA], il est nécessaire d'établir des accords en matière de sécurité. En biologie, il existe une série de niveaux largement acceptés : BSL 1 à 4, pour le confinement de la biosécurité, ce qui est tout à fait logique, car ces choses sont dangereuses. Un jour, il y aura un petit nombre d'ordinateurs extrêmement puissants qui, je pense, se trouveront dans une base militaire et seront alimentés par une source d'énergie nucléaire dans cette base, et ils seront entourés d'encore plus de barbelés et de mitrailleuses parce que leur capacité d'invention, leur puissance, etc., dépasseront ce que nous voulons, en tant que nation, donner sans permission à nos propres citoyens ainsi qu'à nos concurrents. Il me semble logique qu'il y ait quelques-uns de ces systèmes et qu'il y en ait beaucoup d'autres qui soient plus largement disponibles.
    Source : Eric Schmidt

    Et vous ?

    Qu'en pensez-vous ?
    Selon vous, le point de vue de M. Schmidt est-il crédible ou pertinent ?

    Voir aussi :

    Eric Schmidt estime qu'on devrait développer l'IA aussi rapidement que possible, car son potentiel est très important, par exemple un médecin IA ou un tuteur IA

    L'ancien PDG de Google, Eric Schmidt, s'exprime sur l'IA : "elle est sous-estimée et les entreprises vont changer grâce à elle"

    Eric Schmidt, ancien PDG de Google, affirme que les États-Unis ont 2 à 3 ans d'avance sur la Chine en matière d'IA, tandis que l'Europe est trop occupée à réglementer pour être pertinente

  16. #96
    Membre émérite
    Homme Profil pro
    Chargé de projets
    Inscrit en
    Décembre 2019
    Messages
    749
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Âge : 34
    Localisation : France, Hérault (Languedoc Roussillon)

    Informations professionnelles :
    Activité : Chargé de projets
    Secteur : High Tech - Éditeur de logiciels

    Informations forums :
    Inscription : Décembre 2019
    Messages : 749
    Points : 2 738
    Points
    2 738
    Par défaut
    Ce qui m'énerve autant que ça me fait rire c'est de voir à quel point cette caste de la sillicon valley est déconnectée de la réalité et des gens qui les entourent :

    dépasseront ce que nous voulons, en tant que nation, donner sans permission à nos propres citoyens ainsi qu'à nos concurrents.
    Depuis quand vous décidez ce que vous voulez "en tant que nation" donner aux citoyens (la nation) ?????

    Les masques tombent d'eux même c'est pas croyable

  17. #97
    Nouveau Candidat au Club
    Homme Profil pro
    Consultant en Business Intelligence
    Inscrit en
    Mai 2024
    Messages
    1
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Âge : 32
    Localisation : France, Hauts de Seine (Île de France)

    Informations professionnelles :
    Activité : Consultant en Business Intelligence
    Secteur : High Tech - Multimédia et Internet

    Informations forums :
    Inscription : Mai 2024
    Messages : 1
    Points : 1
    Points
    1
    Par défaut Débat sécurité IA
    Je trouve ce débat sur l’IA vraiment fascinant et important. Elon Musk et Bill Gates ont tous deux des points de vue très intéressants.

    Personnellement, je comprends pourquoi Elon Musk compare l’IA à une menace nucléaire. C’est une façon très percutante de souligner à quel point les conséquences d’une IA incontrôlée pourraient être graves. Les armes nucléaires sont strictement régulées en raison de leur potentiel destructeur immédiat et massif. De la même manière, une super-intelligence numérique pourrait, en théorie, évoluer bien au-delà de notre contrôle et poser des risques existentielles. Cette comparaison, bien qu’alarmante, vise à nous faire prendre conscience de l’importance d’une régulation stricte dès maintenant, avant qu’il ne soit trop tard.

    Cependant, je trouve aussi le point de vue de Bill Gates très pertinent. Il voit l’IA comme une technologie qui, tout comme l’énergie nucléaire, possède à la fois un potentiel immense pour le bien et des risques significatifs. Cette approche plus équilibrée me parle beaucoup, car elle reconnaît les opportunités tout en restant conscient des dangers. En effet, l’IA pourrait transformer positivement notre société à bien des égards, mais elle pourrait aussi être utilisée à des fins destructrices, notamment dans le domaine militaire.

    Je pense que nous devons prendre au sérieux les mises en garde d’Elon Musk, même si elles peuvent sembler alarmistes. Son insistance sur la création d’un organisme de réglementation pour superviser le développement de l’IA me paraît être une mesure de précaution nécessaire. En même temps, adopter une perspective équilibrée comme celle de Bill Gates nous permet de ne pas sombrer dans une vision trop pessimiste et de reconnaître les nombreux avantages que l’IA peut offrir.

    En fin de compte, je crois que le débat sur l’IA ne doit pas se limiter à une opposition entre optimisme et pessimisme. Il s’agit de trouver un juste milieu, où nous pouvons encourager les innovations tout en mettant en place des gardes-fous appropriés pour prévenir les abus et les dangers potentiels.

    Qu’en pensez-vous ? Est-ce que la comparaison de l’IA avec l’arme nucléaire vous semble justifiée ? Pensez-vous qu’on devrait privilégier une approche plus prudente ou plus optimiste dans le développement de l’IA ?

  18. #98
    Expert éminent sénior
    Avatar de Kannagi
    Homme Profil pro
    cyber-paléontologue
    Inscrit en
    Mai 2010
    Messages
    3 226
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Âge : 36
    Localisation : France, Bouches du Rhône (Provence Alpes Côte d'Azur)

    Informations professionnelles :
    Activité : cyber-paléontologue

    Informations forums :
    Inscription : Mai 2010
    Messages : 3 226
    Points : 10 188
    Points
    10 188
    Par défaut
    Citation Envoyé par SamuelLamour Voir le message
    sition entre optimisme et pessimisme. Il s’agit de trouver un juste milieu, où nous pouvons encourager les innovations tout en mettant en place des gardes-fous appropriés pour prévenir les abus et les dangers potentiels.

    Qu’en pensez-vous ? Est-ce que la comparaison de l’IA avec l’arme nucléaire vous semble justifiée ? Pensez-vous qu’on devrait privilégier une approche plus prudente ou plus optimiste dans le développement de l’IA ?
    Qu'elle sont ridicule est sans aucun fondement scientifique.

    Déjà parce qu'elle présupposent que ces IA sont dangereuse parce que peuvent être consciente, sauf que y'a aucune théorie là dessus.
    Le second point , ça présuppose que les algos peuvent créer une conscience , préposition qui ne se base sur aucune observation...
    Et troisième point qu'on oublie souvent , la conscient fait probablement partie du vivant , et donc que ça devrait plus de ce coté là qu'une théorie/explication viendrait.

    Donc non heureusement qu'il y'a pas de débat sérieux sur ça , parce que ça serait ridicule.

    Si on parle de L'IA ce qu'elle est , donc un outils statistique , oui mais bon pas sur que cette technologie ira aussi loin qu'elle le promettent.

    Celà me fait penser à la génétique il y'a 20 ans :
    https://www.courrierinternational.co...n-grand-public
    (enfin meme 30 ans)

    Au final , le résultat de tout ces investissements ?
    Et la génétique souffrait du même problème que l'IA actuelle (enfin en moins pire) , pas de théorie solide et ds promesses de monts et merveilles avec !

  19. #99
    Membre habitué Avatar de Fluxgraveon
    Homme Profil pro
    mécanicien
    Inscrit en
    Mai 2024
    Messages
    112
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : France, Lot (Midi Pyrénées)

    Informations professionnelles :
    Activité : mécanicien

    Informations forums :
    Inscription : Mai 2024
    Messages : 112
    Points : 177
    Points
    177
    Par défaut
    Et troisième point qu'on oublie souvent , la conscient fait probablement partie du vivant
    Mmm, juste une question : à combien estimez-vous cette probabilité ?

    Peut-être sommes-nous comme dans une expérience de Miller-Urey pour comprendre la nature de l'intellection en tentant de faire émerger de la "conscience" à partir d'une "soupe algorithmique" ? N'est-ce pas trop hérétique cela dit ?

  20. #100
    Expert éminent sénior
    Avatar de Kannagi
    Homme Profil pro
    cyber-paléontologue
    Inscrit en
    Mai 2010
    Messages
    3 226
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Âge : 36
    Localisation : France, Bouches du Rhône (Provence Alpes Côte d'Azur)

    Informations professionnelles :
    Activité : cyber-paléontologue

    Informations forums :
    Inscription : Mai 2010
    Messages : 3 226
    Points : 10 188
    Points
    10 188
    Par défaut
    Citation Envoyé par Fluxgraveon Voir le message
    Mmm, juste une question : à combien estimez-vous cette probabilité ?
    Franchement je dirais pour moi facile 90%, et la chose pour moi la plus frappante est ceci :
    Les neurones sont bien positionné , et malgré la différence des individus et la variation des connexions des neurones, celà créer toujours une sacré cohérence avec leur environnement.
    Il y'a un autre systeme dans la nature qui a ce même mécanisme : la génétique

    Et je pense que les deux sont les mêmes mécanismes.

    Et le vivant à les mêmes problématique que la conscience, malgré qu'on connaît tout de leur processus physique , cela ne nous apprend rien sur "comment ça marche".

    Et le dernier point souvent oublié , un neurone est une cellule avant tout (il a un code ADN, tout comme toute les cellules de notre corps).

Discussions similaires

  1. 52e classement des superordinateurs les plus puissants : les États-Unis occupent les deux premières places
    Par Patrick Ruiz dans le forum Programmation parallèle, calcul scientifique et de haute performance (HPC)
    Réponses: 7
    Dernier message: 14/11/2018, 15h00
  2. Réponses: 10
    Dernier message: 17/09/2014, 23h30
  3. Réponses: 25
    Dernier message: 11/12/2013, 10h22
  4. Réponses: 8
    Dernier message: 25/06/2013, 01h22
  5. Quelles sont les personnalités IT les plus puissantes au monde
    Par Gordon Fowler dans le forum Actualités
    Réponses: 5
    Dernier message: 06/11/2010, 12h27

Partager

Partager
  • Envoyer la discussion sur Viadeo
  • Envoyer la discussion sur Twitter
  • Envoyer la discussion sur Google
  • Envoyer la discussion sur Facebook
  • Envoyer la discussion sur Digg
  • Envoyer la discussion sur Delicious
  • Envoyer la discussion sur MySpace
  • Envoyer la discussion sur Yahoo