Eh ben si c'est ça, les développeurs ont intérêt à se remuer drôlement fissah, pour colmater les brèches.
En souhaitant pour eux que ça soit avec la justice, qu'ils risquent des ennuis.
Eh ben si c'est ça, les développeurs ont intérêt à se remuer drôlement fissah, pour colmater les brèches.
En souhaitant pour eux que ça soit avec la justice, qu'ils risquent des ennuis.
Ce bot a été entraîné non pas a "donner la vérité", mais à répondre de manière conversationnelle et en s'adaptant à l'utilisateur.
A partir du moment ou 'il s'adapte à l'utilisateur, c'est qu'il peut deviner des éléments sur le dit utilisateur.
Les entreprises doivent encadrer l’utilisation de l’IA générative, d'après Ray Canzanese, Threat Research Director du Threat Labs de Netskope
Lancé par la Première ministre en septembre dernier, le comité de l’intelligence artificielle générative a pour objectif de présenter des propositions concrètes d'ici à six mois afin d'adapter la stratégie du Gouvernement au sujet de l'IA, en plein essor. Selon la dernière enquête annuelle de McKinsey, un tiers des entreprises utilisent régulièrement l’IA générative dans au moins une fonction, et 60 % des organisations ayant déclaré avoir adopté l’IA utilisent l’IA générative. Si les avantages de son utilisation sont considérables, elle n’est pas sans risque. En juin dernier, plus de 100 000 comptes ChatGPT ont été piratés, puis mis en vente sur le Dark Web. Il faut donc avoir conscience que ces outils ne garantissent pas la sécurité ou la confidentialité des données.
Selon Ray Canzanese, Threat Research Director du Threat Labs de Netskope, si les applications d'IA générative ont le potentiel de faciliter le quotidien des collaborateurs, elles peuvent également exposer de manière significative les données sensibles et les organisations à des risques de compromissions de données et de non-conformité :
Source : NetskopeSelon nos recherches, pour 10 000 utilisateurs, les entreprises subissent chaque mois environ 183 incidents de partage de données sensibles avec l’application ChatGPT. Les codes source sont les plus partagées dans ChatGPT, avec un taux mensuel de 158 incidents pour 10 000 utilisateurs. On dénombre également des données réglementées, notamment financières ou médicales, et des informations personnellement identifiables (IPI). Les organisations doivent donc prendre des contre-mesures sérieuses pour préserver la confidentialité et la sécurité de leurs données sensibles. Cela implique de surveiller l'utilisation et l'abus potentiel d'applications d’Intelligence Artificielle générative, en limitant l'exposition d'informations sensibles par leur intermédiaire et en sécurisant les documents confidentiels contre la perte accidentelle et le vol.
Pour relever le défi, la visibilité sera clé. Les équipes de sécurité doivent en effet s'appuyer sur des outils automatisés capables de surveiller en permanence les applications telles que ChatGPT auxquelles les utilisateurs de l'entreprise accèdent ; et plus particulièrement comment, quand, à partir d'où et à quelle fréquence. Il est essentiel de comprendre également les différents niveaux de risque que chaque outil représente pour l'organisation et d'avoir la capacité de définir des politiques de contrôle d'accès granulaires, en temps réel sur la base de cette catégorisation ainsi que des conditions de sécurité qui peuvent changer au fil du temps.
Alors que les applications plus explicitement malveillantes devraient être bloquées, la responsabilité de l'utilisation d’applications d’IA générative devrait être confiée aux utilisateurs. Il n’y aura en effet pas de futur sans ces technologies, l’objectif est donc de permettre, mais de restreindre leur utilisation à des activités définies et pertinentes. En parallèle, les équipes de sécurité ont la responsabilité de sensibiliser les collaborateurs aux applications et aux activités jugées risquées. Cela peut se faire via des alertes en temps réel et des workloads automatisés de formation, en impliquant l'utilisateur dans les décisions d'accès après avoir reconnu le risque.
Les utilisateurs commettent des erreurs et peuvent, par négligence, mettre en danger des données sensibles. Par conséquent, il est primordial de limiter le téléchargement et la publication de données hautement sensibles via ChatGPT et autres outils similaires. Seules des techniques modernes de prévention des pertes de données (DLP) permettent d'y parvenir, car elles sont capables d'identifier automatiquement les flux de données critiques et de catégoriser les messages sensibles avec un niveau de précision très élevé.
Et vous ?
Trouvez-vous cette analyse crédible ou pertinente ?
Quelle est la situation de votre entreprise vis-à-vis de l'IA générative ?
Voir aussi :
WormGPT est une alternative à ChatGPT sans « limites éthiques ou restrictions ». Le chatbot IA peut aider les cybercriminels à créer des logiciels malveillants, et des attaques de phishing
81 % des utilisateurs se méfient de ChatGPT et s'inquiètent de sa sécurité et de sa sûreté, et 63 % ne font pas confiance aux informations produites par cet outil d'IA générative, selon Malwarebytes
Les employés utilisent secrètement ChatGPT, ce qui pose des risques pour les entreprises, l'utilisation non contrôlée de l'IA générative, une bombe à retardement pour les sociétés
C'est une évidence.
Les entreprises qui ne s'y sont pas encore attaquée courent déjà le risque de diffuser leurs données.
Pour prendre un exemple simple et explicite : nous voulons lancer un projet d'IA transforme un ensemble de documents en exigences.
Notre responsable data nous a montré que ChatGPT le faisait déjà en chargeant un de nos documents confidentiels dans ChatGPT sans sourciller.
Sans une politique sécurité informatique sérieuse le responsable de nos données aurait diffusé des données confidentielles sans s'inquiéter.
Donc si lui le fait combien d'autres ont essayé?
36 % des informaticiens craignent que l'IA ne prenne leur emploi, soit 17 points de plus que pour les autres employés de bureau, selon un rapport d'Ivanti.
Une nouvelle étude révèle que 36 % des informaticiens sont très inquiets à l'idée que les outils d'IA générative prennent leur travail dans les cinq prochaines années, soit 17 points de plus que les autres employés de bureau. Cependant, le rapport d'Ivanti révèle que les employés de bureau sont six fois plus susceptibles de dire que l'IA générative profite aux employeurs qu'aux employés.
Il n'est peut-être pas surprenant que les chefs d'entreprise soient nettement plus optimistes quant aux promesses de l'IA, déclarant que les principaux avantages de l'IA dans l'entreprise sont l'automatisation des tâches banales (62 %) et l'augmentation de la productivité des employés (60 %).
"Bien que les entreprises s'empressent d'adopter de nouveaux cas d'utilisation de l'IA, leurs employés sont divisés sur ce que cela signifie pour leur carrière", déclare le Dr Srinivas Mukkamala, directeur des produits chez Ivanti. "Les entreprises ne peuvent pas se permettre d'éviter ce sujet et il ne suffit pas de prêcher tous les avantages de l'IA. Les dirigeants doivent communiquer clairement sur la stratégie de l'IA et son impact sur l'avenir de l'expérience des employés, la productivité et la progression de carrière. Sans le soutien des employés et la supervision de l'IA générative, les entreprises seront lentes à tirer parti des gains, et pourraient avoir des conséquences imprévues sans la supervision humaine nécessaire."
Les raisons pour lesquelles les professionnels de la technologie ne sont pas aussi enthousiastes comprennent des niveaux élevés de stress, la crainte que l'IA ne débauche leurs emplois et la crainte que l'IA générative n'augmente les résultats à leurs dépens.
Mukkamala ajoute : "Toutes les organisations doivent garantir la sécurité, la sûreté et la confidentialité des données collectées et introduites dans les systèmes d'IA. Cela doit être pris au sérieux, et il n'est pas négociable de protéger les données contre les abus, les acteurs menaçants ou les intentions malveillantes. En construisant des garde-fous pour les modèles d'IA, nous ne pouvons pas négliger la construction de garde-fous qui évitent les biais de l'IA, les biais des données, les biais du modèle/de l'algorithme - et surtout les biais humains. Comme nous l'avons vu dans la recherche, la plupart des utilisateurs et des employés sont sceptiques à l'égard de l'IA, il est donc important que nous établissions une confiance globale avec une sécurité proactive et une résilience du système d'IA."
Source : Ivanti
Et vous ?
Pensez-vous que ce rapport est crédible ou pertinent ?
Quel est votre avis sur le sujet ?
Voir aussi :
L'IA : une menace pour les postes des développeurs informatique humains dans les années à venir ? C'est ce que suggère la page deathbyai.com qui liste en sus d'autres métiers comme la médecine
63 % des informaticiens craignent que l'IA ne prenne leur travail et 56 % d'entre eux pensent que l'IA profite davantage aux employeurs qu'aux employés, selon un rapport d'Ivanti
Un codeur réfléchit aux derniers jours de son métier, "un mauvais programmeur plus GPT-4" est une chose dangereuse, selon James Somers
Le rapport mesure des sentiments donc il est bien plus simple qu'il soit crédible. La question est que fait on une fois qu'on a collecté ses sentiments?
Je n'ai pas de réponse arrêté sur le bienfondé de la crainte des "informaticiens" (groupe de métier dont je perçois la diversité sans en faire partie), mais elle me parait très raisonnable:
Les entreprises que je côtoie semblent plus tracassée par l'épaisseur de leur porte feuille qu'avant et je vois qu'elles sont réticentes à embaucher et je penses qu'un moyen de ne pas embauché consiste à mettre plus d'IA chez ceux qui demande du renfort (au risque - parfois conscient - de perdre en qualité)
si l'ia impact le marché de l'emploi des développeurs alors il impactera tous les métiers de services. Manager, avocats, finance, santé, éducation, RH ...etc.
Bon au usa les avocats semble vouloir se protéger en interdisant l'ia dans la justice, meme chose coté médecin, mais c'est temporaire, tot ou tard la protection juridique sautera.
Allons plus loin, les robots humanoïdes commence a devenir très intéressants au niveau motricité et pourrais eux aussi a terme avec une ia integré réduire le besoins de certains métiers manuels. On fait des maisons aujourd'hui avec des imprimantes 3D géantes.
Pour l'heure l'ia est incapable de faire un logiciel complet de manière autonome, elle nécessite d'etre utilisé par des développeurs qui savent de quoi ils parlent pour être efficace et la guidé correctement.
l'ia et juste capable de coder des fonctions pour l'instant.
Oui mais dans quel but ? Produire plus ? Consommer plus ? Avec quelles ressources ? Comment des humains qui vont perdre leur emploi vont pouvoir acheter ce qui est vendu ? Dans un monde de plus en plus toxique pour les humains, quel progrès y a-t-il à chercher.
Je vais créer un équivalent au label bio pour l'IA, certifié humains de bout en bout.
Comme d'habitude, on va gagner en productivité, mais on en verra pas la couleur, ça va juste augmenter la charge de travail, et diminuer l'expertise, donc les salaires, et augmenter la réplicabilité des gens. Que du bonus pour les employeurs.
Le but c'est d'appauvrir les gens pour qu'ils consomment moins et donc qu'ils polluent moins.
La suite ce sera de diminuer la population mondiale. (les gens deviennent stérile et on des problèmes de santé)
Parce qu'on ne peut pas être 8 milliards a vivre correctement.
On ne peut pas tous avoir un PC, un smartphone, une voiture, etc. On ne peut pas tous prendre l'avion pour aller au New Jersey ou je ne sais où.
Profitez d'aujourd'hui demain ce sera pire.
Je sais même pas si c'est un plan aussi élaboré que ça, si ça se trouve, c'est encore pire, on est face à une marrée de gens qui globalement s'en fichent et font du business as usual comme à la révolution industrielle et "advienne que pourra".
Des humains bien trop peu responsables entourés de béni-oui-oui avec bien trop de responsabilités et de pouvoir.
Je crois que je préfèrerais encore qu'il y ai un plan.
Ouais mais même si ce n'est pas fait exprès, au final les gens vont perde leur travail, ils n'auront plus de revenu et vivront beaucoup moins bien.
Il est probable que les gens s'appauvrissent dans le futur.
De toute façon la croissance infinie est impossible.
Nous sommes limités par les ressources disponible.
Il y a forcement une limite.
Il y a trop d'humains, ils consomment trop, ça ne peut pas durer éternellement.
Il est possible qu'il arrive des évènements violents tel que l'hyperinflation en Allemagne en 1921.
L'économie mondiale finira fatalement par s'effondrer, ça fait trop longtemps que c'est n'importe quoi.
Ils ne pourront pas toujours faire comme en 2008, en repoussant le problème. On ne peut pas fuir en avant pour toujours.
Ah, quand même quelqu'un qui pose les bonnes questions.
Ça se fait rare.
L'automatisation est une très bonne chose dans une société qui a atteint un certain niveau de maturité.
Mais dans un monde où on voit le premier ministre choisir les candidats à la présidentielle, personne protester contre ça, et les gens grommeler qu'on verra ce qu'on verra aux prochaines élections, nous sommes fort mal barrés.
c'est pas parce que la France est devenue un pays craignos que c'est le cas partout ailleurs dans le monde.
La ou en france on impose aux gueux de rouler en vélos tels la formidable époque de Mao, en chine on pousse pour que chaque citoyen ai une voiture d'un constructeur national évidement pas une allemande.
En inde l'escrologie on s'en tape, les centrales a charbon tourne à pleins régime pour fournir au plus grand nombre de l'énergie et a terme si on suit cette folie de politique escrologique oui on va finir comme des indiens et les indiens eux vont devenir plus riche que nous.
il y'a pleins de pays ou les gens travaillent et s'enrichissent, ou l'état prends pas +50% des salaires, et ou les salaires sont très bon.
https://www.lexpress.fr/economie/emp...KOQUVXNZDMVMY/
Suisse, Singapour, et USA par exemple sont de bonnes destination pour ceux qui ont des compétences a vendre et pouvoir s'acheter une bonne voiture thermique neuve bien polluante avec a peine 3-4 mois de salaires et une maison avec a peine 2-3ans de salaire.
bien sur que si ! il est très simple de fournir de l’énergie, de l'eau potable et de la nourriture a 8 milliards d’êtres humains avec un logement correcte.Parce qu'on ne peut pas être 8 milliards a vivre correctement.
bien sur que si !On ne peut pas tous avoir un PC, un smartphone, une voiture, etc. On ne peut pas tous prendre l'avion pour aller au New Jersey ou je ne sais où.
il y'a 8.59 milliards de smartphones dans le monde donc déja y'a plus de smrtphones que d'humain
ce doit être globalement la même chose pour les pc
on sait faire de l’électricité quasi illimité et bon marché, les centrale au thorium que la chine construit par exemple. cela donne assez d'énergie aux 8 milliards d'humains pour alimenter les pc, smartphones et produire de l’hydrogène avec de l’électrolyse pour alimenter les avions.
les entreprises veuelent s'étendre et gagner des parts de marchés et les indens et les chinois ont déja quasi tous un scooter thermique et a terme auront une voiture et pourrons prendr el'avion. Je vois de plus en plus d'indiens qui voyage en europe, il y'a 5ans je ne voyais que des chinois.
heureusement qu'on a les chinois et les indiens pour venir dépenser de l'argent en france par avion car sinon on serait mort depuis longtemps !
OpenAI affirme qu'il enquête sur les rapports selon lesquels ChatGPT est devenu "paresseux"
mais l'entreprise est accusée d'avoir limité les capacités du chatbot pour réduire les coûts
OpenAI fait face à des réactions négatives selon lesquelles ChatGPT affiche des performances désastreuses et serait devenu "paresseux". Les utilisateurs rapportent que le chatbot d'IA refuse d'accomplir des tâches ou ne fournit qu'un effort minimal dans ses réponses, allant parfois jusqu'à se montrer insolent. Au lieu de fournir un code complet pour les demandes, il propose maintenant des extraits et demande aux utilisateurs d'effectuer la tâche eux-mêmes. Les utilisateurs se sentent frustrés et certains soupçonnent OpenAI d'avoir entravé délibérément les capacités de ChatGPT pour réduire les coûts. OpenAI a annoncé avoir ouvert une enquête sur ses plaintes.
ChatGPT a relancé de plus belle la course à l'IA et depuis son lancement il y a un an, les plateformes rivales ont toujours du mal à égaler ses performances. Cependant, les utilisateurs de ChatGPT ont commencé à se plaindre d'une régression des performances du chatbot. Ils sont plaints que ChatGPT refuse de faire ce que les gens lui demandent ou qu'il ne semble pas intéressé par les réponses à leurs questions. En outre, ils ont aussi rapporté que parfois, lorsque ChatGPT se décidait à répondre à une question, il n'allait pas au bout de sa réponse et demandait à l'utilisateur de compléter le reste. Selon les plaignants, ChatGPT serait devenu "paresseux".
Par exemple, certains affirment avoir demandé un morceau de code, mais ChatGPT s'est contenté de donner quelques informations, puis demander aux utilisateurs de compléter le reste. Certains se sont plaints qu'il le faisait de manière particulièrement insolente, en disant aux utilisateurs qu'ils étaient parfaitement capables de faire le travail eux-mêmes. « Je lui ai demandé l'âge d'une célébrité et il m'a répondu : "il est né à cette date. Avec cette information vous pouvez le découvrir vous-même". Je lui ai demandé pourquoi il ne pouvait pas le faire, ce qu'il a fait, mais j'ai eu l'impression qu'il était inutilement insolent », peut-on lire dans les commentaires.
« ChatGPT donne des réponses de moins en moins utiles et il dit parfois simplement non à une requête. J'ai vu de nombreuses fois ChatGPT dire qu'il ne pouvait pas répondre à une demande et demander autre chose. Je suis obligé de créer un nouveau chat et après quelques invites, il n'est plus utile », a écrit un utilisateur. Un autre critique a commenté : « c'est un problème terrible qui doit être résolu le plus rapidement possible. Il ne permet plus d'écrire un code long et complet ». On peut lire également dans les commentaires : « le système donne trop de réponses vagues, en particulier aux questions sur Docker, Kubernetes et autres CI/CD ».
Dans de nombreux fils de discussion sur Reddit et même dans des messages sur les forums de développement d'OpenAI, les utilisateurs se sont plaints que le système était devenu moins utile. Ils ont également supposé que le changement avait été fait intentionnellement par OpenAI pour que ChatGPT soit plus efficace et ne renvoie pas de longues réponses. Théoriquement, cela le rendrait moins coûteux. En effet, les systèmes d'IA tels que ChatGPT nécessitent une puissance de calcul importante, ce qui rend les réponses détaillées coûteuses. Ainsi, l'entreprise est accusée d'avoir sacrifié l'expérience de l'utilisateur au profit de l'optimisation des ressources.
OpenAI a déclaré avoir pris connaissance des plaintes et qu'une enquête est en cours. La société a précisé qu'aucune modification n'a été apportée au système d'IA et a rejeté les allégations selon lesquelles elle aurait bridé ses performances. « Nous avons entendu tous vos commentaires sur le fait que GPT-4 devient plus paresseux. Nous n'avons pas mis à jour le modèle depuis le 11 novembre, et ce n'est certainement pas intentionnel. Le comportement du modèle peut être imprévisible, et nous cherchons à le corriger », a écrit OpenAI sur X. Dans un long billet sur X, il a tenté d'expliquer que la formation du modèle pouvait être à l'origine du problème.
OpenAI a souligné que la formation des modèles d'IA n'est pas "un processus industriel propre" et que les variations dans les cycles de formation peuvent entraîner des différences notables dans la personnalité de l'IA, son style créatif et son parti pris politique. Les tests approfondis des modèles comprennent des mesures d'évaluation hors ligne et des tests A/B en ligne. Selon l'entreprise, la décision finale de lancer un nouveau modèle repose sur une approche fondée sur les données afin d'améliorer l'expérience "réelle" de l'utilisateur. Mais ces explications ne convainquent pas les utilisateurs, certains affirmant qu'il est peu probable qu'il s'agisse d'un bogue.we've heard all your feedback about GPT4 getting lazier! we haven't updated the model since Nov 11th, and this certainly isn't intentional. model behavior can be unpredictable, and we're looking into fixing it 🫡
— ChatGPT (@ChatGPTapp) December 8, 2023
« Je doute fort qu'il s'agisse d'un bogue. Il est très facile d'équilibrer et d'ajuster les performances d'un LLM sur une tonne de paramètres différents. (De plus, les vrais bogues critiques ne sont pas quelque chose que les entreprises veulent ignorer comme ça pendant des mois.) Ils réduisent simplement les performances pour que leur fonctionnement soit moins coûteux. En outre, "enquêter" est une autre façon de dire : "nous ne l'admettrons jamais, il faut s'y habituer" », a écrit un utilisateur de ChatGPT. Certains utilisateurs ont menacé de se suspendre leurs abonnements à la version payante de ChatGPT et d'autres ont préféré tourner la situation en dérision.
« Nous y voilà ! J'ai dû dire 5 fois à ChatGPT de corriger le code qu'il m'avait fourni. Il a reconnu qu'il avait fait une erreur. Pourtant, il m'a généré à nouveau le même code. Au moins, nous n'aurons plus à craindre de perdre notre emploi. C'est aussi mauvais que nous, mais la direction ne pourra plus avoir son bonus », a plaisanté un critique. Un autre a souligné : « honnêtement, il a été assez mauvais pour moi depuis le début. Il me donne toujours des réponses erronées et invente des conneries. Ce n'est pas de la paresse. ChatGPT est inutile. Les réponses qu'il me donne sont pires que celles de Google Search. Pourquoi perdre du temps avec cette merde ? »
Cela dit, ce n'est pas la première fois que les performances de ChatGPT sont remises en cause. En juillet, des chercheurs de l'Université de Stanford et de l'Université de Californie à Berkeley ont rapporté que les capacités de ChatGPT dans la résolution de certaines opérations mathématiques de base ont chuté d'une version à l'autre. L'étude a analysé les performances de GPT-3.5 et GPT-4 pendant plusieurs mois sur quatre tâches diverses : résoudre des problèmes mathématiques, répondre à des questions délicates, générer du code logiciel, etc. Les chatbots ont obtenu des résultats médiocres sur certaines tâches en juin que dans leurs versions de mars.this process is less like updating a website with a new feature and more an artisanal multi-person effort to plan, create, and evaluate a new chat model with new behavior!
— ChatGPT (@ChatGPTapp) December 9, 2023
Le résultat le plus remarquable concernait GPT-4, dont la précision dans un exercice de mathématique a chuté de 98 % en mars à 2 % en juin. « Les performances et le comportement de ces deux modèles peuvent varier considérablement dans le temps et les performances de GPT-4 se sont dégringolées au fil du temps », ont écrit les chercheurs en guise de conclusion. La nouvelle controverse survient dans un contexte d'agitation au sein d'OpenAI, après l'éviction surprise puis de la réintégration du PDG Sam Altman. Avec des questions sur les raisons de cette saga, le problème du "ChatGPT paresseux" ajoute une nouvelle couche à l'histoire de l'entreprise.
Le licenciement surprise d'Altman en novembre a provoqué une onde de choc dans l'industrie technologique, laissant des questions sans réponse et des spéculations à profusion. Malgré le silence d'Altman sur la question, une enquête du Washington Post dresse un tableau inquiétant de son comportement "psychologiquement abusif" et "toxique" à l'égard des employés. Le rapport, qui cite des sources anonymes, affirme qu'Altman a favorisé une atmosphère de chaos et de manipulation, ce qui a conduit à des plaintes concernant son comportement auprès de l'ancien conseil d'administration.
Et vous ?
Quel est votre avis sur le sujet ?
Que pensez-vous des rapports qualifiant ChatGPT de "paresseux" ?
Qu'est-ce qui pourrait être à l'origine du comportement de ChatGPT ?
OpenAI a-t-il bridé intentionnellement les capacités de son chatbot pour réduire les coûts ?
Avez-vous rencontré les mêmes problèmes dernièrement ? Si oui, partagez votre expérience.
Voir aussi
La plupart des employés d'OpenAI ne voulaient pas travailler pour Microsoft, car cela aurait signifié perdre plusieurs avantages, selon un rapport qui s'appuie sur des témoignages
Pourquoi ChatGPT devient-il plus nul en mathématiques de base ? Selon une étude, la raison serait un phénomène de dérive imprévisible
GPT-4 est passé de 98 % à 2 % de réponses exactes à un problème mathématique simple en l'espace de quelques mois, selon une étude qui révèle que les performances de ChatGPT et GPT-4 sont en déclin
Encore un qui pourrait pas vider l'eau d'une chaussure même si le tuto était imprimé sur le talon ,
Pas besoin d'énormes bulldozers à outrance si on à pas besoin de faire des gigabuildings vitrés qui sont des passoires thermiques, c'est le concept oui. Tout comme il est inutile de produire 150 tonnes de maïs OGM pour en jeter la moitié car les rayons des hypers doivent toujours avoir l'air remplis et la main d'œuvre ouvrière la plus basse possible en augmentant le rendement.
Vraiment je me pose la question c'est possible d'encore moins comprendre le contenu d'un message ou vous allez encore pouvoir surprendre tout le monde ici ?
En quoi passer d'une pelle à un bulldozzer à fait réellement avancer le gars qui tenait la pelle ? Il à moins mal au postérieur quand il va bosser, génial, il finira toujours par mourir à 65 ans comme tous les gars du bâtiment pour 1800e par mois.
ah un escrologue, je croyais qu'ils étais tous mort de faim et de froid,
oui tu as raison, allons tous a Dubaï en avion pour écouter le sultan du pétrole dire qu'il faut sauver la planète
je suis pas climato sceptique, mais sauver le climat je m'en bat les couilles c'est pas priorité.
Moi je veux faire des barbecues l'été avec de la bonne viande à foison, je veux partir en vacances en avion, et je veux faire mes courses avec ma diesel.
Ma priorité c'est avoir une économie prospère et que le plus grand nombre puisse bien vivre.
avec la lois sur le DPE des gens a paris vivent dehors sous un pont désormais, c'est mieux que de se loger dans des apports classé G c'est sur !
Les chinois grâce à la bénédiction de l'ue viennent de tuer toute notre industrie automobile, merci les voitures électrique.
et je remercie poutine d'avoir déclarer la guerre à l’Ukraine sans ca on aurait déjà plus de centrale nucléaire. Au serait tous dépendant à 100% du gaz russe.
des exemple comme çà j'en ai à la pelle.
et bien sur entre la maire escrologique de paris qui part en vacances à tahiti et nos représentant qui sont en vacances a dubai avec le prince pétrolier, je suis celui qui pense tous haut ce que tous le monde fait discrètement en faite
au moins j'assume ma position
L'écolo est en faveur des choix les plus polluants et destructeurs d'écosystèmes (energies renouvelables) et d'une décroissance forcée au détriment des plus fragiles.
Je pense sincèrement que tu souffres psychologiquement de tous ces paradoxes, bulles d'informations dans lesquelles tu te trouves et que plus rien n'a de sens pour toi au final. D'où ton souhait d'un retour à la terre, une forme d'érmitage en communion avec la nature pour revenir aux sources. C'est le signe selon moi d'être proche d'un burn out intellectuel complet.
Vous avez un bloqueur de publicités installé.
Le Club Developpez.com n'affiche que des publicités IT, discrètes et non intrusives.
Afin que nous puissions continuer à vous fournir gratuitement du contenu de qualité, merci de nous soutenir en désactivant votre bloqueur de publicités sur Developpez.com.
Partager