Va dire ça aux personnes âgées dans les maisons de retraites.
ça à l'air compliqué la vie éternelle chez ce mec. Par contre :
Jean 17:3Or, la vie éternelle, c'est qu'ils te connaissent, toi, le seul vrai Dieu, et celui que tu as envoyé, Jésus-Christ.
En effet, la pompe à chaleur est basée sur le principe du frigo : on fait passer la chaleur d'un milieu à un autre.
La plupart d'entre nous sommes capables de supporter la chaleur, grâce à des mécanismes de régulation basés notamment sur la sudation. Quelques personnes ont plus de mal que d'autres avec ça, et ça ne s'arrange pas avec l'âge.
À l'inverse, pour la nourriture le problème est différent : au bout d'une semaine (ou deux quand on a de la chance), dans un frigo elle est encore là, dans un garde-manger à température ambiante elle est bonne à jeter. Ou il faut utiliser des conserves, il en existe plusieurs catégories.
Jusqu'à un point, si on ne prend pas garde au point de destination, le problème est un peu similaire en matière d'inondation. C'est concevable qu'on veuille pomper pour remettre son logement en état, mais si on envoie l'eau chez son voisin, on n'est collectivement guère plus avancés.
Il faudrait une règle du genre "si il fait plus de 33°C sur le lieu de travail, vous arrêtez de bosser immédiatement et vous rentrez chez-vous".
Température au travail : quelles limites en cas de fortes chaleurs ?
C'est dangereux la chaleur et nous ne sommes pas tous égaux fasse à elle, par exemple les finlandais, les suédois, les norvégiens sont plus adapté au froid.De plus, l’Institut national de recherche et de sécurité (INRS) considère qu’au-delà de 30 °C pour un salarié sédentaire, et 28°C pour un travail nécessitant une activité physique, la chaleur peut constituer un risque pour les salariés.Et que le travail par fortes chaleurs et notamment au-dessus de 33 °C présente des dangers.
En pratique, si les températures dépassent les 30 °C, la situation doit donc être considérée comme sérieuse.
Le fait qu'il y ait une climatisation au bureau motivent des travailleurs à se rendre au travail
Ce serait l'enfer sans climatisation, le soleil tape contre le mur et les fenêtres, les ordinateurs agissent comme des radiateurs, même avec les volets fermés ce serait horrible.
====
2019 :
Face à la chaleur, le Qatar installe désormais des climatiseurs dans les rues
2023 :Les températures atteignent des niveaux si extrêmes dans le pays que les autorités commencent à équiper les stades, les marchés et même… les trottoirs.
Piste de ski, îles artificielles, climatisation à outrance... les choix aberrants de Dubaï en pleine urgence climatique
On y trouve la plus grande station de ski indoor au monde. Avec ses 3.000 m2, elle se situe à l'intérieur du Mall of the Emirates, un immense centre commercial. La piste fait 85 mètres de haut, 80 mètres de large et 400 mètres de long.
D'où ma remarque sur les personnes âgées. Je rappelle que la canicule de 2003 a occasionnée 70 000 morts en Europe, dont 15 000 morts en France. Ce n'est pas qu'une question de confort, tout au contraire, c'est une question sociale, à moins que les futurs gouvernements n'ont que faire des personnes âgées.Envoyé par Gluups
Droit de retrait : que dit la loi en cas de température extrême ?
Je me rappelle qu'en 2003, dans les bureau, sans climatisation mais avec des ventilateurs, nous avions du 45°C. Impossible à l'époque d'exprimer son droit de retrait. Nous devions faire acte de présence ou prendre des jours de congés. Plusieurs personnes au travail ont fait des malaises durant cette période caniculaire. Il faut bien s'hydrater.
Donc non, ce n'est pas que du confort, cela peut être vitale surtout avec ces changements climatiques qui peuvent, comme en ce moment en Inde et en Chine provoquer des morts par déshydratation.
Au demeurant, il se peut qu'il y ait eu quelques cas "faute à pas de bol", et puis il y a sûrement eu aussi pas mal de victimes de choses qu'on faisait semblant de ne pas savoir.
Aujourd'hui encore, là où il faudrait davantage de moyens, on fait davantage d'économies. Et c'est très coupable de dire qu'il n'y a pas d'argent, là où ceux qui l'ont sont exonérés d'impôts (pour un montant assez précis : le déficit du budget de l'État).
Là il faut se méfier du hors sujet parce qu'il n'est plus très loin, sauf si on considère que la recherche de solutions fait partie du sujet.
Je pense que c'est compliqué pour pas mal de monde, sauf que lui a l'air pas mal motivé, si on prend son discours au premier degré.
Bon si ce qui l'intéresse c'est le pognon que vont lui donner ceux qui prendront ça au premier degré, c'est vrai que c'est un peu différent.
Ah, là, ce n'est pas tout-à-fait la même perspective.Par contre :
Jean 17:3
Il y a d'autres moyens de lutter contre la chaleur (et le froid) en commençant par l'isolation. Étrangement, si tu rentres dans une église (une ancienne, mais une récente), en pleine canicule, il y fait agréablement frais. Et, pourtant aucun clim, là-dedans. Bon, c'est peut-être un coup de Jésus, mais j'ai un doute...
Beaucoup de maisons anciennes gardent le frais l'été et sans clim.
Je me rappelle avoir fait un tour d'Europe en train.
Je me suis retrouvé en Grèce à un moment où il faisait chaud là-bas.
Je n'ai pas le souvenir précis des chiffres, mais enfin il fallait faire attention.
J'avais soif. J'ai commandé un verre de jus de fruit. L'équivalent de cinq euros.
J'avais encore soif. Encore un autre verre. Pas mieux.
Ah vous le prenez comme ça ?
Je suis entré dans une supérette (enfin un commerce : j'ai déjà oublié l'essentiel de la liste de 52 types de commerces qu'on m'a enseignés pour la France –je ne suis même plus sûr du nombre– alors me cherchez pas pour la Grèce).
J'ai acheté une bouteille d'un litre et demi, puis je suis allé m'installer dans un square avec ça, et vous devinez ce que j'ai fait avec.
Hum, j'avais le ventre tendu pour quelques heures, certes. Mais plus soif.
Là, coup de coude aujourd'hui aux victimes de l'hypertrophie de la prostate qui se plaignent de ne pas réussir à uriner. Même si ce n'est pas en Grèce, la solution peut être la même, quitte à augmenter un peu la dose pendant deux semaines. Sont exclus de la cible les gens qui relèvent de la dialyse, qui, j'ose l'espérer, bénéficient de conseils adaptés.
OpenAI développe une échelle à 5 niveaux pour suivre la progression de ses systèmes d'IA vers une intelligence artificielle générale
et affirme que sa technologie s'approche du niveau 2
OpenAI a élaboré un cadre de classification à 5 niveaux pour suivre les progrès de ses logiciels d'IA. Les niveaux vont des capacités actuelles de l'IA conversationnelle (niveau 1) à une IA capable d'effectuer des tâches organisationnelles (niveau 5). Le système de classification a été présenté aux employés lors d'une réunion à l'échelle de l'entreprise et sera aussi partagé avec les investisseurs et les parties externes. Les dirigeants d'OpenAI ont informé le personnel que l'entreprise est convaincue d'en être au stade initial. En outre, la direction a ajouté qu'elle est très proche d'un système de niveau 2, composé des machines intelligentes appelées "raisonneurs".
Certains spécialistes en IA affirment que le phénomène appelé "effet IA" est l'un des problèmes qui ralentissent, ou empêchent, l'évolution de la technologie vers une intelligence artificielle générale (AGI). L'effet IA désigne un phénomène dans lequel une fois qu'une tâche ou une capacité est automatisée ou accomplie avec succès à l'aide de l'IA, elle n'est plus considérée comme faisant partie de la véritable IA. En d'autres termes, dès qu'une IA devient compétente pour une tâche spécifique, les gens ont tendance à ne plus la considérer comme une IA et à la percevoir comme une simple opération de routine ou régulière.
Ainsi, l'on pense que chaque succès de l'IA redéfinit la technologie. À cela s'ajoute l'absence de consensus sur la définition de l'intelligence, ce qui complique davantage la tâche pour les sociétés d'IA. Jusqu'ici, chaque entreprise définit l'AGI selon sa vision, bien que tous les acteurs de la course à l'AGI se rejoignent sur la plupart des points. Pour contourner ces problèmes, le créateur de ChatGPT, OpenAI, a défini sa propre échelle de suivi de l'évolution de ses grands modèles de langage (LLM). Il s'agit d'une échelle à cinq niveaux, allant des modèles conventuels actuels (niveau 1) à une AGI, notamment du point de vue d'OpenAI.
Le cadre de classification a été présenté aux employés lors d'une assemblée générale et devrait partager plus tard avec la communauté. OpenAI estime que son chatbot d'IA ChatGPT se situe au niveau 1, mais la startup assure qu'elle est proche du niveau 2 où l'on retrouve les systèmes appelés "raisonneurs". Elle définit un système de niveau 2 comme un système capable de résoudre des problèmes de base au niveau d'une personne titulaire d'un doctorat. Le niveau 3 fait référence à des systèmes capables de prendre des mesures pour le compte d'un utilisateur. Le niveau 4 concerne une IA capable de créer des innovations.🚀 Levels of AI by OpenAI 🚀
— HunterX.ai (@Hunter_Xai) July 12, 2024
1️⃣ Chatbots: AI with conversational language
2️⃣ Reasoners: Human-level problem solving
3️⃣ Agents: Systems that can take actions
4️⃣ Innovators: AI that can aid in invention
5️⃣ Organizations: AI that can do the work of an organization$ASI is… pic.twitter.com/zUJVydQMov
Le niveau 5, l'étape finale pour atteindre l'AGI, est une IA qui peut effectuer le travail d'organisations entières de personnes. OpenAI a défini l'AGI comme un système hautement autonome surpassant les humains dans la plupart des tâches avec une valeur économique. Sam Altman, PDG d'OpenAI, a précédemment déclaré qu'il pense que l'AGI pourrait être atteinte au cours de cette décennie. Ainsi, une échelle sur laquelle OpenAI pourrait se tester et tester ses concurrents pourrait aider à déterminer plus clairement le moment où l'AGI sera atteinte. Mais OpenAI n'est pas le premier à proposer un cadre de classification.
Dans un article publié en novembre 2023, des chercheurs de Google DeepMind ont proposé un cadre de cinq niveaux ascendants d'IA, comprenant des niveaux comme "expert" et "surhumain". Cette échelle ressemble à un système auquel l'industrie automobile fait souvent référence pour évaluer le degré d'automatisation des voitures autonomes. À l'époque, Demis Hassabis, le PDG de Google DeepMind, a également déclaré qu'il est possible d’atteindre une forme d’IA de niveau humain dans une décennie, ce qui donnerait aux machines un sens commun. Selon lui, cette IA serait un système capable de raisonnement causal.
Les chercheurs en IA débattent depuis longtemps de la manière de déterminer les critères permettant d'atteindre l'AGI. La structure unique d'OpenAI est centrée sur sa mission de réaliser l'AGI , et la façon dont OpenAI définit l'AGI est importante. L'entreprise a déclaré que si un projet aligné sur les valeurs et soucieux de la sécurité s'approche de l'AGI avant qu'OpenAI ne le fasse, elle s'engage à ne pas entrer en concurrence avec le projet et à tout laisser tomber pour l'aider. Cependant, la formulation de cet engagement dans la charte d'OpenAI est vague, laissant la place au jugement de l'entité à but lucratif de l'organisation.
L'AGI est toutefois encore loin : il faudra des milliards et des milliards de dollars de puissance de calcul pour atteindre l'AGI, si tant est qu'on y parvienne. Les calendriers des experts, y compris celui d'OpenAI, varient considérablement et de nombreux défis restent à relever, notamment en matière de sécurité. En mai, OpenAI a dissous son équipe de sécurité après le départ du chef du groupe, le cofondateur d'OpenAI Ilya Sutskever. Jan Leike, un chercheur clé d'OpenAI, a démissionné peu après, affirmant que "la culture et les processus de sécurité sont devenus secondaires par rapport aux produits brillants au sein d'OpenAI".
Bien qu'OpenAI ait nié que ce soit le cas, certains s'inquiètent de ce que cela signifie si l'entreprise parvient effectivement à l'AGI. OpenAI n'a pas fourni de détails sur la façon dont l'entreprise affecte les modèles à ces niveaux internes. Toutefois, selon un rapport de Bloomberg, les dirigeants de l'entreprise ont présenté lors de la réunion un projet de recherche qui utilise le modèle d'IA GPT-4 et estiment que ce projet met en évidence de nouvelles compétences qui font preuve d'un raisonnement semblable à celui des humains. Il y a peu d'informations sur cette échelle et l'on ignore si elle sera adoptée par le reste du secteur.
Cette échelle pourrait contribuer à donner une définition stricte des progrès, plutôt que de laisser place à l'interprétation. Par exemple, Mira Murati, directrice technique d'OpenAI, a déclaré dans une interview en juin que les modèles dans ses laboratoires ne sont pas beaucoup mieux que ce que le public a déjà. En revanche, Altman a déclaré à la fin de l'année dernière que l'entreprise avait repoussé le voile de l'ignorance, ce qui signifie que les modèles sont plus intelligents.
Et vous ?
Quel est votre avis sur le sujet ?
Que pensez-vous du cadre de classification proposé par OpenAI pour les systèmes d'IA ?
OpenAI va-t-il tenter d'imposer cette échelle à l'ensemble de l'industrie ? Quels en seraient les impacts ?
Voir aussi
Sam Altman, PDG d'OpenAI, affirme que ChatGPT aurait pu être considéré comme une intelligence générale artificielle il y a 10 ans, il a laissé entendre que le chatbot est victime de l'effet IA
Google DeepMind vient de publier une liste de niveaux d'AGI et définir des niveaux de performance, elle suggère des principes tels que se focaliser sur les capacités plutôt que sur les mécanismes
« L'IA générative n'est qu'une phase. La prochaine phase sera l'IA interactive dans laquelle des machines interactives effectueront des tâches à votre place », affirme un cofondateur de DeepMind
l IA avec une échelle comme celle des véhicules autonomes: sur 5, on est au niveau 2, et dans des cas très contraignants niveau 3 (par ex Mercedes à 80kmh max sur autoroute). Et on sait qu'atteindre le niveau 5 sera très difficile, voire impossible, alors qu'il semblait promis pour 2025 il y a 10 ans.
pour l IA c est pareil: après le hype de ces dernières années, on nous dira dans 2 ans que le niveau 5 est quasi impossible à atteindre...
L’IA au service du collectif : le seul modèle éthique pour l'IA est le socialisme, d'après Richard Eskow
qui estime que les individus pourraient être rémunérés de plusieurs manières pour l'utilisation de leur propriété intellectuelle collective
Aujourd’hui, les grands modèles de langage (LLM) sont produits à partir de données publiques, ce qui signifie qu’ils ne peuvent pas être éthiquement possédés par un individu en particulier. C'est en tout cas ce que pense Richard Eskow qui estime que « le socialisme est la seule façon équitable de gouverner cette technologie ».
Pour étayer sa pensée, il a donné un exemple hypothétique : une personne appelée “Kath”, abréviation de “Kathénas”, qui signifie “tout le monde” en grec. Kath a des amis, un foyer, des enfants et un emploi de 9 à 17 heures dans une économie occidentale. Comme nous tous, Kath alimente les vastes bases de données qui alimentent l’IA d’aujourd’hui. Ces données, générées à partir de son activité en ligne, peuvent inclure son historique d’achats, son état de santé, ses croyances religieuses probables et son orientation sexuelle. Elles comprennent également le langage extrait de ses e-mails, vidéos YouTube, pages web, publications Instagram et autres contenus qu’elle a partagés. Les images téléchargées et les actions effectuées sur les réseaux sociaux, ainsi que les comportements et préférences de visionnage de vidéos, sont également suivis.
Pendant que Kath dort, un traceur de sommeil sur son téléphone enregistre ses habitudes de sommeil. Lorsqu’elle se réveille, l’alarme de son téléphone est réglée sur des chants rastafariens Nyabinghi des années 1960. Ce choix sera utilisé pour affiner les suggestions musicales futures pour elle et d’autres utilisateurs ayant un profil similaire. Kath parcourt les actualités et les publications de ses amis sur Facebook pendant qu’elle prend son petit-déjeuner, “likant” certaines publications, regardant quelques vidéos et sautant d’autres. Chaque action est enregistrée.
Lorsque ses parents veulent des photos des enfants, Kath se connecte à un site de partage de photos en utilisant un CAPTCHA, qui lui demande de compléter un test simple pour identifier des lettres ou des images avant de pouvoir télécharger ses photos. Ce test contribue à former un système d’IA de reconnaissance d’images. Ses photos téléchargées alimentent encore une autre IA. Sans le savoir, quelque chose qui ressemble de près — ou qui pourrait même être identique — au dessin de l’avion de son plus jeune enfant en crayon rouge apparaîtra la semaine prochaine sur un site d’IA après qu’un utilisateur ait tapé : “Dessinez un avion comme un enfant”.
Kath appelle le service ferroviaire subventionné par l’État pour réserver un siège pour un prochain voyage d’affaires. Elle a une “conversation” avec un système vocal qui porte un nom féminin. Le système initie l’échange avec un joyeux “Salut ! Je m’appelle Julie !” Le comportement du système et les réponses de Kath sont suivis. Son appel suivant est à sa compagnie d’assurance ; elle parle à un opérateur du centre d’appels. Cette conversation — les mots qu’elle prononce, les émotions qu’elle exprime et même les inflexions minimes de sa voix — sera analysée ultérieurement. Kath demande ensuite à Alexa de jouer de la musique de quatuor à cordes ; cela aussi est suivi. Lorsqu’elle passe un appel téléphonique, ses mots sont-ils également analysés ? Nous ne le pensons pas, du moins pas encore, mais nous ne pouvons pas en être sûrs. Il est techniquement possible de collecter des appels téléphoniques de cette manière, et le monde de la technologie est devenu de plus en plus secret quant à ses processus internes, y compris ce qu’il collecte et pourquoi.
Au travail, presque tout ce que Kath fait est surveillé : sa vitesse de frappe, le nombre de pauses, même les informations de sa webcam, qui incluent “des données biométriques telles que les mouvements des yeux, les changements de position du corps et les expressions faciales”, utilisées pour déterminer si elle est concentrée sur son travail et attentive pendant les appels vidéo.
À quoi ressemblerait une économie socialiste de l'IA ?
Dans le cadre d'un système « d'IA socialiste démocratique », les individus pourraient être rémunérés de plusieurs manières pour l'utilisation de leur propriété intellectuelle collective. Les revenus pourraient être utilisés pour améliorer l'éducation et construire des médias publics, ou les gens pourraient recevoir de petites allocations pour leur rôle dans le grand système. Toutefois, si les gens ne sont pas rémunérés pour leurs contributions sous une forme ou une autre, le système restera intrinsèquement exploiteur.
Les citoyens devraient également être autorisés à voir, comprendre et voter sur les algorithmes utilisés pour filtrer les informations qu'ils voient. Le public doit avoir à la fois un accès libre à l'information et un contrôle démocratique sur le caractère « collant » ou addictif de toute technologie en ligne qu'il utilise. Toute autre solution constitue une atteinte aux libertés fondamentales. Quant aux droits à la vie privée, ils pourraient être établis à l'avance et faire l'objet d'un vote par les participants. Les individus pourraient avoir la possibilité de se retirer du système et de conserver leur production pour leur propre usage, sans partager la ressource commune.
Surtout, l'économie de l'IA pourrait être utilisée pour favoriser l'épanouissement de la vie humaine et non humaine. C'est une idée aussi vieille que le socialisme lui-même. À quel point ? Dans les premiers temps de l'automatisation, le révolutionnaire socialiste Che Guevara a explicitement appelé à la libération de l'homme par la technologie. Dans un discours prononcé lors de la réunion plénière nationale sur le sucre à Camagüey, à Cuba, en février 1963, il a déclaré : « Nous essayons de transformer les machines en instruments de libération [...] pour atteindre la chose la plus importante que nous devons réaliser : l'épanouissement des individus ». L'année dernière, Nathan J. Robinson a écrit dans Jacobin que la technologie pourrait « nous libérer des corvées plutôt que de nous précipiter dans la pauvreté ».
Dans un scénario socialiste où les besoins humains primeraient sur le profit, certains travailleurs pourraient se retrouver sans emploi. Pour compenser ces travailleurs déplacés, Robinson a proposé un scénario intéressant : « Que diriez-vous de ceci : une fois que le travail pour lequel vous avez été formé est automatisé, vous recevez une pension d'automatisation et vous pouvez vous détendre pour le reste de votre vie. Tout le monde priera pour que son emploi soit le prochain sur la liste à disparaître ».
En ce qui concerne les autres crises concomitantes auxquelles nous sommes confrontés, du climat à la guerre - qui sont aggravées par l'utilisation actuelle de l'IA - l'éthique socialiste nous libérerait du pouvoir destructeur de la recherche du profit, ce qui nous permettrait d'aborder véritablement ces problèmes avec l'urgence qu'ils requièrent. De même, tout risque « existentiel pouvant être posé par l'IA (sujet hautement controversé en soi) pourrait être traité en décrétant un moratoire sur les activités qui augmentent ces risques (semblable au désir exprimé par les nations arabes de créer un Moyen-Orient exempt d'armes de destruction massive).
Les défis du modèle socialiste pour l’IA
Collectivisation des données
Le modèle socialiste propose que les données soient collectivisées et gérées par la communauté. Cependant, cela soulève des questions sur la confidentialité et la sécurité des informations personnelles. Comment garantir que les données sensibles ne soient pas exploitées ou utilisées à mauvais escient ? La collectivisation doit être équilibrée avec des garanties de protection des droits individuels.
Équité dans l’accès et l’utilisation
L’idée d’une IA socialement responsable est noble, mais comment s’assurer que tous les individus ont un accès égal aux avantages de l’IA ? Les inégalités socio-économiques pourraient persister, même dans un modèle socialiste. Comment garantir que les avantages de l’IA ne soient pas réservés à une élite ?
Transparence et responsabilité
Dans un modèle socialiste, qui sera responsable des décisions prises par l’IA ? Comment assurer la transparence des algorithmes et des processus décisionnels ? La responsabilité collective peut être floue et complexe à mettre en œuvre.
Innovation et créativité
Le socialisme peut parfois freiner l’innovation et la créativité en décourageant la concurrence et la recherche de profits individuels. Comment équilibrer la nécessité d’une IA éthique avec le besoin d’innover et de progresser ?
Défis internationaux
L’IA ne connaît pas de frontières. Comment un modèle socialiste gérerait-il les défis internationaux tels que la coopération, la concurrence et la sécurité ? Les questions géopolitiques et les intérêts nationaux doivent également être pris en compte.
Limites du revenu universel
Richard Eskow cite Robinson qui propose un scénario où les travailleurs remplacés reçoivent « une pension d'automatisation ». Une vision qui est loin de faire l'unanimité.
Selon Sam Altman, le PDG d'OpenAI, au lieu d'un revenu de base universel, il faudrait un calcul de base universel, où chacun obtiendrait une part du calcul du GPT-7. Voici son avis :
« Maintenant que nous voyons certaines des façons dont l'IA se développe, je me demande s'il n'y a pas de meilleures choses à faire que la conceptualisation traditionnelle de l'UBI (Revenu de base universel). Par exemple, je me demande si l'avenir ne ressemble pas plus à un calcul de base universel qu'à un revenu de base universel. Si tout le monde obtient une part de calcul GPT 7 qu'il peut utiliser, revendre ou donner à quelqu'un pour la recherche sur le cancer. Mais ce que vous obtenez, ce ne sont pas des dollars. Vous possédez une partie de la productivité ».
Dario Amodei, PDG d'Anthropic, n'est pas favorable au RBU. À l'occasion d'une interview avec le Time, il a déclaré : « Les idées autour du revenu de base garanti - si nous ne pouvons pas trouver mieux, je pense certainement que c'est mieux que rien. Mais je préférerais de loin un monde dans lequel tout le monde peut contribuer. Ce serait un peu dystopique si quelques personnes pouvaient gagner des billions de dollars et que le gouvernement les distribuait à la masse. C'est mieux que de ne pas le distribuer, mais je pense que ce n'est pas vraiment le monde que nous voulons viser ».
En fin de compte, le modèle socialiste pour l’IA soulève des questions complexes et nécessite une réflexion approfondie sur la manière de concilier éthique, équité et innovation.
Source : Richard Eskow
Et vous ?
Que pensez-vous des propos de Richard Eskow ? Partagez-vous son point de vue ? Dans quelle mesure ?
Qui devrait posséder les données ? Devrions-nous privilégier la collectivisation des données pour une IA éthique, ou existe-t-il d’autres modèles de propriété qui pourraient mieux servir l’intérêt public ?
Comment garantir l’équité dans l’accès ? Comment pouvons-nous nous assurer que l’IA bénéficie à tous, indépendamment de leur statut socio-économique ? Quelles mesures devraient être prises pour éviter les inégalités ?
Quelle transparence est nécessaire ? Quel niveau de transparence devrait être exigé des entreprises et des gouvernements lorsqu’ils utilisent l’IA ? Comment pouvons-nous rendre les algorithmes plus compréhensibles pour le grand public ?
Quels sont les avantages et les inconvénients de l’innovation collective ? Le modèle socialiste encourage la collaboration et la mise en commun des ressources. Quelles sont les implications pour l’innovation et la créativité dans ce contexte ?
Comment gérer les défis internationaux ? L’IA transcende les frontières nationales. Comment pouvons-nous collaborer à l’échelle mondiale pour garantir une utilisation éthique et responsable de l’IA ?
Et voilà cinq pommes dans un panier, qui font rouli-roula ... à la fin, elles sont toutes gâtées et inutilisables.
Les cinq niveaux, ici et là sont en cours de développement en fonction des usages, des domaines d'expérimentation (à quel niveau se situe la découverte de nouveaux matériaux, de nouvelles molécules, par exemple : c'est du chat ?) , donc ... c'est fait pour rassurer monsieur et madame Toutlemonde, non ?
Ou leur donner à croire quelque chose genre "c'est trop cool", "pas de risque sérieux avant la fin du siècle voire le prochain" ?
Et puis "surhumain", ça ne veut rien dire : on ne sait même pas qui on est.
Flûte, ça a à voir avec l'autre article : bah en définitive ça n'est guère différent, se développe un outil qui n'est utile que dans un environnement adéquat.
Qui n'est pas le Moyen-Âge, dont nous ne sommes pas sortis, hors quelques détails formels.
Les mecs sont a deux doigts de réinventer le communisme en y ajoutant une touche de techno féodalisme, ou google remplace l'état.
Une dictature quoi, sauf que la c'est pas des vieux généraux qui font la gueule mais des milliardaires en t-shirt de la silicon valley.
"Il fallait que tout change pour que rien ne change".
Un gros RSA, ça n'existe pas.Non, ils ne vont pas toucher un gros RSA à vie.
Non mais dans le sens où c'est quelque chose que tu touches quand tu ne travailles pas.
Enfin si t'as travaillé et que c'est terminé tu vas d'abord toucher le chômage avant de finir au RSA.
Le chômage est limité dans le temps, pas le RSA.
La pension d'automatisation ce serait comme un RSA. (mais ce serait plus que : 635€/mois -3% de son épargne (livrets rémunérés))
@ Ryu2000 : le RSA est limité dans le temps puisque tu ne le perçois plus après 65 ans. C'est la retraite qui prend en principe le relais.
Vous avez un bloqueur de publicités installé.
Le Club Developpez.com n'affiche que des publicités IT, discrètes et non intrusives.
Afin que nous puissions continuer à vous fournir gratuitement du contenu de qualité, merci de nous soutenir en désactivant votre bloqueur de publicités sur Developpez.com.
Partager